sphere

La sphère publique et la chambre d’écho

sphere

Face à l’inquisition en 1633, après avoir été forcé de renier l’héliocentrisme, Galilée murmure E pur si muoveet pourtant, elle tourne. L’anecdote est certainement apocryphe, mais elle illustre une tension épistémologique fondamentale : à quel moment l’adhésion à une croyance devient-elle si dominante qu’aucune donnée contraire ne peut plus la contredire ? A quel moment doit-on accorder sa confiance à la majorité ou à l’opposition ? Comment évaluer quel crédit accorder aux opinions autour de nous ? Comment évaluer quel crédit accorder à notre propre opinion ? Pour prendre la bonne décision – ou juste être en paix avec nous-même – nous avons besoin d’informations fiables. À défaut, on doit déléguer notre raisonnement aux bonnes sources.

Le paysage informationnel depuis Galilée a radicalement changé. Nous ne sommes plus seul contre tous, mais face à un marché des idées : des chaînes de télévision, radios et journaux dominants dans les années 80 ; l’installation de quelques plateformes de news en ligne dans les années 90 ; l’émergence des sites personnels, le référencement Google et Youtube dans les années 2000 ; la multiplication des blogs et réseaux sociaux dans les années 2010 ; l’usager comme producteur de contenu depuis les années 2010-2020. Le nombre de producteurs et d’hébergeurs de contenu, en compétition pour avoir le plus large impact, a explosé avec les années. Aujourd’hui la tendance est de considérer qu’en conséquence a) nous vivons tous plus ou moins dans des chambres d’écho, b) que celles-ci polariseraient et fragmenteraient la sphère publique, c) qu’elles faciliteraient la diffusion des fausses informations, et d) qu’elles amplifieraient l’extrémisme. L’hypothèse des chambres d’écho suggère que les plateformes numériques – comme les réseaux sociaux – fragmentent la sphère publique en groupes de plus en plus hermétiques, menaçant les sociétés démocratiques.

Le problème de la chambre d’écho

En 2001, Cass R. Sunstein met en évidence le concept de la chambre d’écho. Plus une palette de choix est large (choice overload), plus les individus s’orienteraient vers ce qu’ils connaissent ou aiment. Internet permettant de se connecter avec une infinité d’acteurs, il favoriserait selon Sunstein la création de communautés isolées, entre gens similaires, où les opinions se renforceraient en raison d’interactions répétées avec des pairs ou des sources ayant des tendances similaires. Une chambre d’écho est une de ces situations où les individus seraient exposés à des opinions principalement similaires, issues d’un nombre limité de perspectives, et en l’absence d’informations contradictoires. On peut poser le problème différemment : si des individus évoluent dans des espaces clos avec une forte homophilie, si ces individus maintiennent avec leurs pairs des interactions répétées et s’appuient sur des sources similaires, et si ces sources et ces pairs partagent des tendances et attitudes similaires, alors leurs opinions tendraient à se renforcer par effet de répétition.

Ce phénomène devient problématique si tous les individus d’une population finissent à terme par habiter une chambre d’écho. Dans ce cas, on peut imaginer que les opinions sont encapsulées dans des chambres, que chaque chambre reste hermétique à l’opinion des autres chambres, que les preuves et débats contradictoires ne circulent plus, que le savoir n’est plus harmonisé, et que chaque chambre peut se sentir légitime à revendiquer le droit de décider pour l’ensemble de la population.

Quant à l’appauvrissement des communications croisées, la diminution des interactions qu’un individu peut tisser avec des personnes extérieures à son groupe social (interactions dites “exogames”) accroît sa dépendance vis-à-vis des individus à l’intérieur de son groupe social (interactions dites “endogames”). Les règles, normes et institutions ont émergé pour favoriser la coopération au sein des sociétés. Cependant, lorsque la confiance en les institutions s’érode, cette dépendance endogame se renforce (J. Van Bavel et al., 2022). Le dissensus et la contestation peuvent permettre aux institutions de se réajuster mais rien ne garantit que le repli vers les interactions endogames n’érode pas à son tour la confiance dans les institutions. La confiance dans les institutions sanitaires a par exemple été érodée par les théories du complot autour du COVID-19. 

Pour estimer la part de menace liée aux chambres d’écho, il faudrait se demander : à quel point les chambres d’écho sont-elles réellement prédominantes ? Pour faire court, très peu, voire pas, mais ça dépend. Dans cet article, nous apportons une réponse en examinant la littérature scientifique, puis nous en approfondissons les conséquences.

Sur la communication humaine, l’honnêteté et la crédibilité

Si on revient à l’anecdote de Galilée, on peut régresser jusqu’à des questions plus fondamentales : A quel point cette anecdote décrit-elle le monde ? C’est-à-dire : A quel point cet évènement (le murmure) est-il vrai ? ou Quelle est la probabilité que cet évènement soit vrai ? Et : Quel est l’intérêt d’en parler ?

On communique pour échanger des idées, poser des questions, exprimer des doutes – en d’autres termes, partager des hypothèses, des affirmations et des croyances, souvent teintées par des émotions. Que la communication se fasse par la parole ou en publiant une information (news), l’objectif est de créer un terrain d’entente (common ground), afin de diminuer collectivement l’incertitude et prendre des décisions informées.

Pour échanger linguistiquement, il est essentiel de pouvoir désigner et partager des informations sur ce qui est présent et observable, plutôt que sur ce qui ne l’est pas. Se focaliser sur le réel permet des échanges fidèles et fiables (truthtful et trustworthy), et donc permet une coordination efficace. La survie d’une espèce repose sur un équilibre entre compétition et coopération (ex : Zhang, 2003) et, si la compétition peut se manifester par des actions directes – comme la rivalité pour les ressources –, la coopération, quant à elle, dépend largement d’une communication honnête. Au fil de l’évolution, la communication (humaine, primate) a donc vraisemblablement été contrainte de privilégier la vérité plutôt que le mensonge (Tomasello, 2020). Celle-ci permet aux individus de mieux se comprendre, d’adopter la perspective d’autrui et, par conséquent, de travailler ensemble vers des objectifs communs. C’est dans ces contextes coopératifs que les normes, conventions et institutions ont dû émerger ; et que la communication a progressé vers davantage de véracité en faisant de l’altruisme, de la franchise et de la confiance des normes essentielles pour renforcer cette coopération (Tomasello, 2020). Les enfants, par exemple, font initialement preuve de confiance envers leurs partenaires sociaux (Stengelin et al., 2018), et les humains de manière générale sont intuitivement honnêtes (Capraro et al., 2019), ce qui amène les individus à s’attendre à ce que les déclarations vraies soient les plus fréquentes.

Ces mêmes compétences qui permettent une communication coopérative ouvrent aussi la voie au mensonge – désigner ce qui n’est pas – et exposent chacun au risque d’être trompé par autrui. Pour limiter les dangers liés à la tromperie (et à la désinformation), il a été suggéré que l’évolution nous a progressivement doté de mécanismes de vigilance épistémique – des outils cognitifs nous permettant d’évaluer les intentions, la réputation et la fiabilité des autres (Sperber et al., 2010). Des capacités qui nous semblent aujourd’hui triviales, comme la méfiance des mots utilisés de manière inappropriée, la préférence pour les informations fiables, la vérification qu’un énoncé est cohérent avec notre savoir préalable, favorisent ces évaluations. Ces outils sont adaptés (Gigerenzer & Brighton, 2009), facilitent l’utilisation d’heuristiques rapides et efficaces mais n’ont pas la précision des statistiques. Enfin pour que la communication honnête puisse se stabiliser sur le plan évolutif, il a fallu que celle-ci privilégie les signaux utiles et bénéfiques pour celui qui les reçoit (Tomasello, 2020).

Les messages peuvent avoir des objectifs variés. Ils peuvent viser directement la survie – l’utilité instrumentale par excellence – ou la promouvoir indirectement. Par exemple, le commérage (gossip ; Dunbar, 1996) permet de diffuser des informations sociales, de renforcer les alliances et de consolider les normes du groupe. La communication peut aussi servir à envoyer des signaux – exprimer des valeurs morales, un engagement envers une cause, affirmer une identité – ou à réguler les émotions. En fin de compte, elle relève d’interactions stratégiques : influencer autrui, gagner un avantage compétitif, se coordonner autour d’intérêts communs, etc. Chaque message contient une part de signal (le contenu explicite) et une part de bruit (les distorsions, comme les imprécisions historiques) (Shannon, 1948). Ainsi, tout message reflète plus ou moins fidèlement la réalité, transmis avec plus ou moins de précision, dans un but précis – qu’il soit épistémique, social ou stratégique.

Puisque nous passons notre vie à communiquer, chaque individu est une source potentielle d’information. Nous avons une tendance à envisager les informations (visuelles, auditives, tactiles, gustatives / parole, news, proprioception, etc.) comme principalement vraies (truth bias ; Brashier et Marsh, 2020) et nous avons des outils évolutionnaires adaptés mais imprécis pour rester vigilant. Dès qu’une croyance est soumise à notre jugement, nous partons d’un a priori, nous échantillonnons les informations disponibles – par exemple les opinions autour de nous, nous évaluons la crédibilité de chaque source en fonction de nos croyances préalables, puis nous formons un jugement – c’est vrai, c’est faux, je ne sais pas. En conséquence, une croyance intègre nos connaissances en restant une croyance plus ou moins crédible ou en devenant une assertion.

Contagion

À quel moment l’adhésion à une croyance devient-elle si dominante qu’aucune donnée contraire ne peut plus la contredire ? Le célèbre modèle de Kuhn décrit les changements de paradigme qui surviennent lorsque les anomalies d’un modèle scientifique dominant s’accumulent et qu’une nouvelle théorie offre une explication plus convaincante. Son modèle n’a cependant pas été pensé pour les paradigmes non scientifiques. Il ne prend pas en compte les phénomènes sociaux non-rationnels, ne précise pas comment les révolutions scientifiques influencent l’opinion publique, ni à quelle vitesse. Il ne permet pas non plus d’estimer les variations de l’écart entre croyances scientifiques et croyances populaires selon les époques. La culture scientifique est conservatrice et s’est structurée de manière à se protéger contre les phénomènes non-rationnels. Les révolutions s’y opèrent entre experts. En revanche, le changement d’une opinion publique concernant un paradigme non-scientifique peut aussi bien commencer parmi des experts que de manière plus marginale.

En principe, suivant la science des réseaux, la dominance d’une croyance se produit lorsqu’elle circule au sein d’un réseau d’individus, convainc suffisamment de personnes de sa crédibilité, et transforme ces individus en relais de propagation. Le nombre d’individus nécessaires pour atteindre ce seuil varie selon les contextes. Bien que le consensus soit souvent associé à un taux d’agrément supérieur à 50% au sein d’une population, dans certains cas, un taux de 10 à 25% peut suffire à faire basculer l’opinion du reste du groupe. Ce phénomène s’explique par des dynamiques sociales complexes, influencées par la taille des groupes et des mécanismes tels que la contagion, le point de bascule, la percolation, ou les cascades informationnelles (par exemple, Choi et al., 2023). Cela étant dit, un réseau large, dense et redondant, composé de multiples hubs, devrait en théorie être résilient face à la propagation de nouvelles croyances – jusqu’à ce qu’une croyance adverse gagne suffisamment en crédibilité pour se propager (ex, dans le cadre scientifique : révolution Copernicienne ; Kuhn, 1962). 

En pratique, la communication moderne diffère de la communication chez le primate. Les interactions en ligne sont souvent ponctuelles et il y a mille façons de propager des idées.

Prédictions, évènements certains, conclusions incertaines

De nombreux événements sont simples et sans débat. On est le mercredi 12 Février. Ce matin, chez moi à Washington DC, il a neigé et les routes sont devenues glissantes. La municipalité a dépêché des agents pour saler les routes. Les habitants ont participé à déneiger les trottoirs.

D’autres sont plus complexes, incertains, personnels. Il y a eu 26 tempêtes de neige en 2013-2014, 19 tempêtes en 2019-2020 et l’administration (NOAA, l’Agence américaine d’observation océanique et atmosphérique) a prévu 20 tempêtes à venir pour la saison 2024-2025, chacune plus ou moins violente. Elles ne passeront pas toutes par Washington DC. La municipalité doit chaque été prendre les précautions matérielles pour l’hiver à venir. Elle a également dû choisir ce matin de retarder l’ouverture de certaines écoles, et de maintenir d’autres fermées. Durant la dernière tempête, la municipalité a été accusée de privilégier les quartiers favorisés. Quelle opinion dois-je former à ce sujet ? M’en faut-il une ?

Internet et les réseaux sociaux ont ouvert l’accès à une pluralité sans précédent de sources, contenus, opinions, informations. Ils peuvent également conduire à consommer des informations limitées à un cercle restreint de perspectives. Les conséquences de cet environnement informationnel sont variables : ce matin, par sécurité, j’ai choisi de rester travailler chez moi ; par défiance envers le réchauffement climatique d’origine anthropique, le gouvernement américain vient d’imposer de nouvelles restrictions à la NOAA. Celle-ci estime qu’elles impacteront très probablement la qualité de ses futures prévisions.

Définir les chambres d’écho et les bulles de filtre

Consommer de l’information provenant d’un nombre restreint de sources peut enfermer les individus dans des espaces informationnels conformes à leurs attitudes et les isoler des informations contradictoires. Ne pas accéder aux prévisions de la NOAA peut limiter la capacité à gérer une tempête de neige ; s’entourer exclusivement de climatosceptiques peut entretenir le climato-scepticisme – et impacter les politiques publiques. Cet effet d’isolement peut également résulter d’une personnalisation excessive des flux d’information par les moteurs de recherche et les réseaux sociaux, indépendamment de notre volonté.

Ces dynamiques peuvent être analysées par deux concepts : celui de chambres d’écho (echo chambers) et celui de bulles de filtre (filter bubbles). Le concept de chambre d’écho a été introduit par Sunstein (2001), sans définition claire. Il désigne un environnement où les utilisateurs interagissent principalement avec des sources partageant leurs opinions, issues d’un nombre limité de perspectives, tout en évitant les informations contradictoires, ce qui tend à renforcer leurs croyances par exposition répétée. De manière similaire, la bulle de filtre est à l’origine une métaphore de l’activiste Eli Pariser, (2011), que l’on définit aujourd’hui comme des espaces informationnels façonnés par les algorithmes des plateformes, qui sélectionnent et recommandent du contenu en fonction des préférences des utilisateurs, réduisant ainsi leur exposition à des perspectives divergentes. Les bulles de filtre seraient une des causes de la formation de chambres d’écho.

Quatre concepts clés sont essentiels pour comprendre les phénomènes de chambres d’écho : a) l’homophilie, b) l’exposition au contenu, c) les comportements individuels, tels que l’exposition sélective, le biais de confirmation ou la peur, et d) les comportements de groupe, incluant l’exclusion des outsiders et l’exclusion collective (Hartmann, Wang, Pohlmann & Berendt, 2024).

L’homophilie est la tendance pour un individu à interagir avec des individus partageant des opinions similaires, ce qui renforce l’unité du groupe en limitant l’accès à des perspectives divergentes. L’exposition au contenu désigne l’exposition répétée à des informations qui soutiennent les croyances existantes. L’exposition sélective est la tendance des individus à rechercher des informations alignées avec leurs croyances préexistantes (associé au biais de confirmation). Les comportements de groupe incluent l’exclusion des individus ou des opinions divergentes, ainsi que le rejet collectif d’informations qui ne correspondent pas aux croyances partagées. Ces comportements sont souvent amplifiés par des traits psychologiques spécifiques (peur de l’isolement, angoisse, manque d’ouverture).

Prévalence des chambres d’écho : que dit la littérature spécialisée ?

Les interactions en ligne relèvent elles aussi des interactions stratégiques. Les interactions ponctuelles n’incitent pas à la coopération, et l’anonymat facilite l’exploitation et la manipulation ; les gains permis par la réciprocité et la réputation, l’aversion au risque ainsi que le truth bias, favorisent au contraire la coopération et incitent à rendre la pareille (pay-it-forward). La communication dans un tel environnement et le favoritisme intragroupe devrait conduire à renforcer les affinités homophiles et à promouvoir une exposition limitée au contenu, par choix ou par design – c’est-à-dire, par exemple, du fait de l’algorithme de la plateforme, de son mécanisme incitatif, ou de la structure de la plateforme en question.

Les recherches ont jusqu’ici révélé des résultats contrastés sur la prévalence des chambres d’écho.

En 2022, Reuters et la Royal Society publiaient un rapport concluant à l’absence de preuves solides pour étayer l’hypothèse selon laquelle les chambres d’écho seraient prédominantes aujourd’hui (Ross Arguedas et al., 2022). Parmi les études passées en revue, un ensemble d’études menées dans divers pays occidentaux (Suède, Espagne, États-Unis, Royaume-Uni, etc.) rapporte peu de preuves en faveur de l’hypothèse et suggère que la prévalence supposée de chambres d’écho – en particulier partisanes – a été surestimée. Une autre étude, s’intéressant à la consommation d’informations idéologiquement partisanes (Allemagne, Autriche, Danemark, Espagne, Norvège, etc.), estime le nombre : seulement 2 à 5 % des individus consommant exclusivement des sources partisanes – 10% aux Etats-Unis (Fletcher et al., 2021). Cette faible proportion s’explique par la tendance générale des individus à diversifier leurs sources d’information (Bos et al., 2016). La quantification précise de la prévalence des chambres d’écho n’est pas aisée: à partir de quand décide t-on qu’un individu est suffisamment isolé pour être considéré comme enfermé dans une chambre d’écho ? Fletcher et collaborateurs (2021) quantifient leur prévalence en estimant le pourcentage de la population consommant des informations politiques ne provenant que d’un seul bord politique. En principe, les chambres d’écho peuvent concerner n’importe quel sujet, malin ou bénin, consensuel ou contesté; en pratique, les études s’intéressent principalement aux informations à caractère politique (Fletcher et al., 2021). 

En 2023, une autre étude plus systématique (Lorenz-Spreen et al., 2023), confirmait que les plateformes numériques diversifient l’information. Plusieurs articles analysés montrent que les réseaux sociaux et les moteurs de recherche contribuent à enrichir les sources d’information des individus. Cependant, l’étude montrait aussi que les plateformes favorisent l’homophilie. La littérature analysée rapporte de manière cohérente l’existence sur les plateformes de clusters sociaux idéologiquement homogènes, où les individus tendent à s’associer avec ceux qui partagent des opinions similaires. [Pour plus de détails concernant l’impact des plateformes numériques sur la polarisation et la confiance dans les institutions, se référer à Lorenz-Spreen et al., 2023].

Les recherches analysées dans les deux études ci-dessus reposent sur des données datant de 2020 au plus tard. Or, le paysage informationnel a changé depuis (ex : rachat de Twitter) et la littérature a connu une forte croissance ces dernières années. Une revue encore en pré-impression, formée à partir de 1651 études publiées jusqu’en décembre 2023, apporte une réponse plus précise (preprint ; Hartmann et al., 2024). Dans cette étude systématique, les auteurs ont sélectionné un ensemble d’articles identifiant les critères utilisés pour étudier l’existence de chambres d’écho (homophilie, exposition sélective, etc.). Ces critères sont identifiés clairement et mesurés de manière quantifiable (expériences, enquêtes, données utilisateurs, etc.) et c’est sur cet ensemble de la littérature que les auteurs formulent leurs conclusions.

Bien que les conclusions n’aient pas encore été revues par les pairs, sur les 112 études analysées, 38 % ne trouvent pas de preuves solides que les plateformes numériques favorisent la formation de chambres d’écho. Ces travaux montrent que les utilisateurs sont majoritairement exposés à une diversité de points de vue, grâce aux dynamiques propres à ces plateformes – par exemple, les flux d’actualités sur Facebook peuvent réduire la ségrégation idéologique, et la variété des sources médiatiques contribue globalement à atténuer ce risque.

Ces recherches conceptualisent principalement les chambres d’écho à travers deux prismes : l’exposition sélective et l’exposition au contenu. Certaines études relèvent une corrélation entre l’engagement politique et la polarisation sur les réseaux, suggérant que les effets observés dépendent davantage des comportements des utilisateurs que des algorithmes eux-mêmes. Si les études axées sur l’exposition sélective tendent à soutenir l’hypothèse des chambres d’écho dans des conditions spécifiques – souvent liées à des orientations idéologiques marquées –, celles qui se concentrent sur l’exposition au contenu produisent des résultats plus nuancés, voire contradictoires, soulignant l’importance des sources d’information hors ligne et le rôle clé des traits individuels. Toutefois, ces études ne peuvent pas, par essence, capturer les dynamiques à l’échelle d’un réseau entier.

A l’inverse, 62% des études retenues tendent à soutenir que les plateformes numériques favorisent la formation de chambres d’écho. Le corpus d’études a identifié avec régularité des regroupements homogènes clairs d’utilisateurs partageant les mêmes croyances ou orientations politiques. Ces résultats sont particulièrement visibles dans des réseaux ségrégués comme les communautés « scientifiques » vs « conspirationnistes » et au sein des sphères politiques polarisées, où l’interaction entre Démocrates et Républicains est limitée. Certaines études montrent également que la structure des réseaux sociaux amplifie la fragmentation idéologique et favorise la diffusion de la désinformation au sein de groupes homogènes, ce qui empêche les utilisateurs d’être exposés à des informations diversifiées.

La majorité des études de ce deuxième corpus prennent l’approche des sciences sociales computationnelles (CSS) et conceptualisent les chambres d’écho à travers la notion d’homophilie. Elles se concentrent généralement sur l’analyse de réseaux uniques et des données de traçage (trace data ; informations générées passivement et automatiquement sur les plateformes numériques). Cependant, ces analyses ne peuvent pas, par essence, accéder à l’expérience médiatique cross-platform ni à l’expérience en dehors des plateformes.

En revanche, il n’y a plus de doute sur l’inadéquation de la métaphore de la bulle de filtre (Ross Arguedas et al., 2022 ; Bruns, 2019). En particulier, « Ce n’est pas la technologie, idiot : Comment les métaphores de ‘Chambre d’écho’ et de ‘Bulle de filtre’ nous ont failli » est le titre d’un des articles les plus critiques de cette notion (Bruns, 2019). Pour comprendre comment les algorithmes des plateformes numériques peuvent aussi promouvoir un régime informationnel diversifié, il faut garder en tête que les deux phénomènes suivants interviennent également lors de nos quêtes informationnelles en ligne : 

  • La sérendipité automatisée : Pour maintenir l’engagement, les algorithmes de classement présentent des résultats inattendus issus de sources inhabituelles ou inconnues pour l’utilisateur.
  • L’exposition fortuite : Les individus sont parfois exposés à des perspectives variées de manière involontaire.

Ce n’est pas la technologie

Ainsi, les études citées ci-dessus suggèrent que les chambres d’écho ne constituent pas un phénomène universel, mais qu’elles émergent en fonction des contextes et des méthodologies employées. Un aspect souvent négligé dans les débats sur les chambres d’écho est la diversité des usages des plateformes numériques : la variabilité du nombre de plateformes utilisées par chaque individu, la variété des algorithmes entre les services, la fluctuation des bots, IA génératives et faux comptes lors des campagnes de désinformation, la prolifération des contenus creux pour booster la SEO (search-engine optimization), les incitations différenciées à la publication et à l’engagement, ainsi que l’importance des médias non numériques (radio, télévision, journaux) et des réseaux sociaux hors ligne (famille, amis, travail, associations). De plus, il ne faut jamais oublier que les phénomènes d’homophilie et d’exposition sélective existaient avant Internet, où les groupes se formaient déjà autour de sources d’information spécifiques (Gentzkow et Shapiro, 2011). Cette conclusion est partagée par Lorenz-Spreen (2023), qui observe que les médias sociaux et les moteurs de recherche tendent à diversifier les informations tout en favorisant la formation de structures sociales homogènes. Ainsi, les systèmes de recommandation et de modération de contenu pourraient n’avoir qu’une influence limitée sur la création de chambres d’écho. Les systèmes de recommandation des médias sociaux visent à maximiser l’engagement des utilisateurs en optimisant deux objectifs principaux : minimiser l’erreur de prédiction des préférences utilisateur et maximiser la diversité et la sérendipité des recommandations. Pour y arriver, le filtrage collaboratif et le filtrage basé sur le contenu permettent de prédire les préférences à partir des similarités entre utilisateurs et entre contenus. En contrepartie, il faut éviter de proposer aux utilisateurs uniquement des contenus similaires à leurs préférences passées, et de marginaliser les contenus de niche en sur-représentant les contenus populaires dans les données d’entraînement. Lorsque les données manquent (cold start), les plateformes reposent sur un mélange de données démographiques, de questionnaires et de filtrage. Par ailleurs, les préférences des utilisateurs ne sont pas statiques et certains utilisateurs recherchent activement des contenus spécialisés ou novateurs (prime à la démarcation ou à l’adoption précoce). Chaque algorithme répond donc à sa manière à un ensemble de contraintes (consistance avec les préférences, qualité, diversité, sérendipité, mitigation des biais dont biais de popularité) (Chen et Huang, 2024). En d’autres termes, les médias sociaux poussent les individus à se regrouper, mais ne les contraignent pas nécessairement à consommer les mêmes informations – Reddit et Youtube se distinguant particulièrement.

La simple présence sur les plateformes numériques ne garantit pas un encloisonnement dans des chambres d’écho. En revanche, les structures incitatives des réseaux favorisent la désinformation (notamment en en récompensant implicitement certains types de contenus: Globig, Holtz, Sharot, 2023). Le concept de chambre d’écho est aujourd’hui controversé, et certains chercheurs suggèrent de le redéfinir ou de l’abandonner (Bruns, 2019 ; Hartmann et al., 2024). La seule définition d’un seuil à partir duquel on considère l’existence d’une chambre d’écho pose problème.

Plus précisément, la question clé est de savoir à quel point des régimes d’information divergents entre utilisateurs constituent des chambres d’écho plutôt que des expressions d’intérêts personnels variés. Plutôt que de se demander si les chambres d’écho sont omniprésentes, il est plus pertinent d’identifier les groupes véritablement déconnectés de la diversité informationnelle. Une échelle allant d’un « régime informationnel équilibré » à une « spécialisation informationnelle » en passant par une « déconnexion dysfonctionnelle » peut être envisagée pour mieux analyser ces dynamiques (Bruns, 2019).

L’idéologie partisane est un facteur qui corrèle fréquemment avec la présence de chambres d’écho. Il est difficile d’estimer si la partisanerie est fréquemment à l’origine de l’isolement dans des groupes fermés, si la tendance à rejoindre des groupes fermés se fait fréquemment autour d’idéologies partisanes, ou si d’autres facteurs peuvent expliquer ces tendances.

Pour citer Bruns (2019) : « La question centrale est de savoir ce qu’ils font de ces informations lorsqu’ils les rencontrent. […] Plus important encore, pourquoi agissent-ils ainsi ? […] C’est le débat que nous devons avoir : pas un argument indirect sur l’impact des plateformes et des algorithmes, mais une discussion sérieuse sur les causes complexes de la polarisation politique et sociétale. »

Le problème de la sphère publique et le non-problème de la chambre d’écho

Malgré la faible prévalence des chambres d’écho, que ce soit en ligne ou hors ligne, les inégalités informationnelles restent omniprésentes. Certains individus souffrent d’un manque d’information, tandis que des plateformes peuvent toutes seules perturber des pays entiers. Par ailleurs, des groupes minoritaires et isolés peuvent exercer une influence disproportionnée sur le débat public, notamment en contribuant à la polarisation des opinions. Les minorités idéologiques jouent souvent un rôle clé dans l’orientation des discussions et la prise de décision politique (Williams et al., 2015), ce qui signifie qu’une frange restreinte mais engagée peut influencer une large partie de la population.

Je ne pense pas qu’on emploie encore le terme de chambres d’écho aujourd’hui pour signifier une multitude de petits groupes isolés et sourds, mais plutôt pour désigner un faible nombre de communautés mégastructures qui n’interagissent plus ensemble. Dans ce cas-là, la question des chambres d’écho ne porte pas sur la fragmentation en groupes en soi mais sur la séparation des opinions – la polarisation – indépendamment de l’appartenance à des groupes. Ce qui signifie qu’on conceptualise mal les problèmes qui affaiblissent la sphère publique. Pour prolonger une idée de Dan Williams, il y a une distance fondamentale entre la réalité et la représentation de la réalité, pour tout et à propos de l’opinion publique, qu’il faudrait œuvrer à réduire. Écouter/entendre les messages diffusés sur les réseaux peut donner l’impression d’accéder à une mesure authentique de l’opinion publique. C’est exagérer la part de tendances réelles – négliger la part de contenu artificiel et l’influence des fermes de bots sur les opinions en ligne et hors ligne – et minimiser la part de tendances illusoires. C’est négliger les interactions stratégiques qui se cachent derrière les messages. C’est aussi négliger que les jugements que l’on porte sur des objets ne reflètent pas systématiquement les preuves que l’on a accumulées sur ces objets. Employer sa vigilance épistémique correctement nécessite d’accorder sa confiance lorsqu’on a pu vérifier les intentions, la réputation, la fiabilité de sa cible – que celle-ci soit autrui ou soi-même. Cela nécessite de pouvoir vérifier a posteriori que l’on a accordé le bon niveau de confiance et de pouvoir estimer a priori que notre niveau de confiance est ni trop fort, ni trop faible (voir les travaux de Philip Tetlock, résumés ici).

Écouter/entendre les messages sur les réseaux peut donner l’illusion de capter un signal – de saisir ce que pense la sphère publique. Il est problématique d’oublier qu’on capte toujours un certain rapport signal-sur-bruit, que le niveau du bruit de fond est variable dans le temps, et qu’on peut faire l’erreur individuelle d’être essentiellement branché sur du bruit.

Références

Bos, L., Kruikemeier, S., & De Vreese, C. (2016). Nation binding: How public service broadcasting mitigates political selective exposure. PLoS ONE, 11(5), 1–11.

Brashier, N. M., & Marsh, E. J. (2020). Judging truth. Annual review of psychology, 71(1), 499-515.

Bruns, A. (2019). It’s not the technology, stupid: How the ‘Echo Chamber’and ‘Filter Bubble’ metaphors have failed us. International Association for Media and Communication Research.

Capraro, V., Schulz, J., & Rand, D. G. (2019). Time pressure and honesty in a deception game. Journal of Behavioral and Experimental Economics, 79, 93-99.

Chen, Y., & Huang, J. (2024). Effective content recommendation in new media: Leveraging algorithmic approaches. IEEE Access.

Choi, S., Goyal, S., Moisan, F., & To, Y. Y. T. (2023). Learning in networks: An experiment on large networks with real-world features. Management Science, 69(5), 2778-2787.

Dunbar, R. I. (1997). Groups, gossip, and the evolution of language. In New aspects of human ethology (pp. 77-89). Boston, MA: Springer Us.

Fletcher, R., Robertson, C. T., & Nielsen, R. K. (2021). How many people live in politically partisan online news echo chambers in different countries?. Journal of Quantitative Description: Digital Media, 1.

Gentzkow, M., & Shapiro, J. M. (2011). Ideological segregation online and offline. The Quarterly Journal of Economics, 126(4), 1799-1839.

Gigerenzer, G., & Brighton, H. (2009). Homo Heuristicus: Why Biased Minds Make Better Inferences. Topics in Cognitive Science, 1(1), 107–143.

Globig, L. K., Holtz, N., & Sharot, T. (2023). Changing the incentive structure of social media platforms to halt the spread of misinformation. Elife, 12, e85767.

Hartmann, D., Pohlmann, L., Wang, S. M., & Berendt, B. (2024). A Systematic Review of Echo Chamber Research: Comparative Analysis of Conceptualizations, Operationalizations, and Varying Outcomes. arXiv preprint arXiv:2407.06631.

Van Bavel, J. J., Pärnamets, P., Reinero, D. A., & Packer, D. (2022). How neurons, norms, and institutions shape group cooperation. In Advances in experimental social psychology (Vol. 66, pp. 59-105). Academic Press.

Kuhn, Thomas Samuel (1962). The Structure of Scientific Revolutions. Chicago: University of Chicago Press.

Lorenz-Spreen, P., Oswald, L., Lewandowsky, S., & Hertwig, R. (2023). A systematic review of worldwide causal and correlational evidence on digital media and democracy. Nature human behaviour, 7(1), 74-101.

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.

Ross Arguedas, A., Robertson, C., Fletcher, R., & Nielsen, R. (2022). Echo chambers, filter bubbles, and polarisation: A literature review. Reuters.

Shannon, C. E. (1948). A mathematical theory of communication. The Bell system technical journal, 27(3), 379-423.

Sperber, D., Clément, F., Heintz, C., Mascaro, O., Mercier, H., Origgi, G., & Wilson, D. (2010). Epistemic vigilance. Mind & language, 25(4), 359-393.

Sunstein, C. (2001). Republic. com. Princeton University Press.

Stengelin, R., Grueneisen, S., & Tomasello, M. (2018). Why should I trust you? Investigating young children’s spontaneous mistrust in potential deceivers. Cognitive Development, 48, 146-154.

Tomasello, M. (2020). The ontogenetic foundations of epistemic norms. Episteme, 17(3), 301-315.

Williams, H. T. P., McMurray, J. R., Kurz, T., & Lambert, F. H. (2015). Network analysis reveals open forums and echo chambers in social media discussions of climate change. Global Environmental Change, 32, 126–38.

Zhang, Z. (2003). Mutualism or cooperation among competitors promotes coexistence and competitive ability. Ecological Modelling, 164(2-3), 271-282.

Déterminants des attentats islamistes: que disent les faits?

Alors que le procès en cours des attaques perpétrés en janvier 2015 contre Charlie Hebdo, une policière à Montrouge et l’Hyper Cacher a réouvert le débat public sur les causes de la violence islamiste, ce dernier est devenu plus vif encore suite à l’assassinat de Samuel Paty le 16 octobre 2020. Il est normal que lors de ces événements choquants, l’émotion rende difficile l’examen raisonné et froid des faits. Pourtant, les faits sont plus que jamais nécessaires pour se faire un avis éclairé sur les causes des attaques islamistes, leur recrudescence en France depuis 2015 et les meilleurs moyens d’y faire face. Nous regroupons dans cet article, les tentatives de Clara Egger et de Raul Magni-Berton – membres du CorteX et auteurs de travaux récents sur les causes de la violence islamiste – de remettre la raison et les faits au coeur des ces enjeux. Comme vous le verrez, la réaction des médias est édifiante.

Acte 1 – Vérités scientifiques et vérités judiciaires lors du procès Charlie Hebdo

Septembre 2020 : premier acte. Alors que la couverture médiatique du procès des attaques de janvier 2015 bat son plein, au CorteX, on trépigne et on fait le plein de matos pour nos cours de pensée critique. Las de lire dans tous les canards que ces attaques visent avant tout « la liberté d’expression », Raul est le premier à dégainer sur son blog de Médiapart 1 sur la base d’un travail de recherche récent co-écrit avec Clara Egger et Simon Varaine. 2

Croquis du procés des attaques de Charlie Hebdo, Montrouge et del’Hyper-Cacher

Le texte assez commenté et partagé, arrive aux oreilles d’un journaliste de Charlie Hebdo, Antonio Fischietti, qui traite pour le journal l’actualité et l’information scientifique. On ne le remerciera jamais assez d’être le seul à avoir pris le temps de lire l’article (c’est de plus en plus rare) alors qu’il fait partie de ceux qui ont directement perdu des proches et des collègues en 2015. Chapeau, Antonio ! Sa réponse , par contre, lapidaire et un peu moqueuse 3, ne nous convainc pas franchement et révèle un manque de compréhension des études statistiques en sciences sociales.

Elle offre toutefois l’occasion à Raùl de reprendre, point par point, les contre-arguments avancés 4.On retiendra de cet échange qu’en matière de violence islamiste, l’application du rasoir d’Occam est à la peine. Parmi toutes les hypothèses pouvant expliquer la survenue d’attentats, certaines sont a priori écartées malgré les preuves accumulées en leur faveur. On comprendra pourquoi dans le second acte de cette controverse.

Acte 2 – Cachez ces études statistiques que je ne saurai pas voir

Novembre 2020 : second acte. A l’occasion d’un débat opposant personnalités du monde académique, des arts et de la culture et chercheurs en études stratégiques sur l’impact de la guerre sur les attaques islamistes, Raul remet le couvert, cette fois accompagnée de Clara. Leur tribune publiée dans la section Débats de l’Obs 5, étaye l’argument selon lequel, il existe en France un déni sur le rôle que joue les interventions militaires extérieures dans les pays musulmans sur la probabilité d’être ciblé par une attaque islamiste. On ne s’attendait pas à ce que telle conclusion, banale dans les cercles d’experts sur le sujet, suscite autant de réactions négatives. La palme d’or à ce journaliste à qui revient le mérite de la réponse la plus explicite : « l’argumentation statistique ici donne presque l’illusion que la vengeance des terroristes est, sinon légitime, du moins compréhensible ».

Le jugement majoritaire et ses alternatives

Le système électoral français est critiqué pour de très bonnes raisons. Parmi les alternatives, celle qui connait le plus de succès auprès des citoyens est le jugement majoritaire. Cependant, ce système a aussi des défauts. Cet article vise à illustrer comment débattre des systèmes électoraux
et à montrer que d’autres alternatives – comme le vote par approbation – mériteraient d’être davantage discutées dans un public plus large que les chercheurs spécialistes.

Critiquer un système électoral est facile puisqu’en matière de décompte de voix, aucune méthode n’est parfaite.  Si la critique se borne à identifier les défauts d’un système –  il y en a toujours plus d’un – et le délégitimer en vertu de ceux-ci, tout système est critiquable.  Toutefois, il existe des systèmes électoraux avec moins de défauts que d’autres, ou avec des défauts qui ont des conséquences moins graves. Et c’est sur ce point que la discussion devient intéressante. Parmi les défauts existants, quels sont ceux qui sont rédhibitoires ?

La France dispose d’un système électoral uninominal à deux tours.  Ce système a de nombreux problèmes si bien que deux chercheurs CNRS Michel Balinski et Rida Laraki ont proposé, au début des années 2000, un système alternatif : le jugement majoritaire 6. Ce système s’est diffusée comme une traînée de poudre dans les cercles politiques et militants où on lui a attribué de nombreuses qualités. Seulement voilà : ce système pose lui aussi de sérieux problèmes. Je reviens ici sur une controverse bien informée, lancée par la publication en 2019 dans la Revue Economique, d’une analyse critique du jugement majoritaire par Jean-François Laslier 7, critique face à laquelle Michel Balinski, décédé depuis, a réagi 8. Laslier est par ailleurs un défenseur du système du vote « par approbation » qui récolte aussi mon soutien.

L’occasion est donc parfaite pour comparer ces trois systèmes sur un des défauts les plus problématiques à mon sens : l’absence de monotonie. Un système est monotone si, quand le soutien en faveur d’un candidat élu augmente, celui-ci reste élu. Et, symétriquement, si le soutien en faveur d’un candidat non élu diminue, alors celui-ci n’est toujours pas élu.

Compte tenu de l’existence d’une longue liste de critères pour évaluer un système électoral9, pourquoi l’absence de monotonie est si regrettable ? Parce que non seulement elle offre une capacité de manipuler les résultats électoraux mais surtout, comme on le verra plus bas, elle incite parfois les élus à nuire à certains électeurs, voire à délibérément mal faire leur travail afin de gagner les prochaines élections. Or, si on élit des gens à des intervalles réguliers, c’est pour qu’ils soient incités à nous satisfaire et pour les soumettre à notre contrôle. Si, au lieu de cela, notre mode de scrutin les incite à nous déplaire pour gagner les élections, l’utilité des élections disparaît.

Analysons trois modes de scrutins – le système à deux tours, le jugement majoritaire et le vote par approbation – par rapport au problème de l’absence de monotonie. Les choses étant vite techniques, le raisonnement va être limité aux élections présidentielles, et ne prendra pas en compte les votes blancs et les abstentions.

Le système à deux tours

Avec notre système actuel, chacun vote pour un candidat, les deux premiers se qualifient au second tour où celui qui récolte le plus de voix gagne.

Revenons dans le temps, à l’élection présidentielle de 2017. Prenons en compte, pour plus de simplicité, seulement les trois candidats qui ont eu le plus de voix au premier tour : Emmanuel Macron, Marine Le Pen et François Fillon.

Pour chaque candidat, les électeurs se répartissent en deux catégories différentes, ce qui donne six configurations possibles (Figure 1). En effet, parmi ceux qui choisissent de voter Macron, certains (1) préfèrent ensuite Fillon à Le Pen alors que d’autres (2) préfèrent Le Pen à Fillon. De même, parmi les électeurs ayant voté pour Fillon, certains (3) préfèrent Macron à Le Pen, alors que d’autres (4) préfèrent Le Pen à Macron. Enfin, les électeurs de Le Pen peuvent préférer Fillon à Macron (5) et d’autres Macron à Fillon (6).

Supposons que 21% des électeurs préfèrent, par ordre, Macron/Fillon/Le Pen, et seulement 3% préfèrent Macron/Le Pen/Fillon. La somme des deux, permet à Macron d’obtenir 24% au premier tour (colonne à gauche). Conformément à ce qui est arrivé en 2017, Fillon a obtenu 20% (nous supposons que ¾ de ses électeurs préfèrent Macron à Le Pen, soit 15% des votes) et Le Pen a eu 21% (parmi ceux-ci,17% préférant Fillon à Macron, et 4% Macron à Fillon).

Le second tour voit donc s’affronter Macron contre Le Pen. Compte tenu de nos chiffres, qui excluent les autres candidats, Macron ajoute à ses 24%, les 15% qui avaient voté pour Fillon et qui préfèrent tout de même Macron à Le Pen (colonne de gauche de la figure de droite). Cela fait 39% en tout. Le Pen, elle, n’obtiendra que 26%, en récupérant 5% dans l’électorat de Fillon. Macron gagne donc haut la main.

Entrons maintenant dans la science-fiction. Nous sommes en 2022. Supposons – et cela nécessite quelques efforts j’en conviens – qu’Emmanuel Macron ait bien gouverné, si bien que tous ses électeurs continuent à voter pour lui, mais, de surcroît, il arrive à séduire 2% d’électeurs qui lui préféraient Le Pen en 2017. Hormis ces 2%, tous les autres électeurs gardent la même opinion qu’en 2017 (Figure 2). A priori une bonne affaire pour Macron : il avait déjà gagné avec 2% d’électeurs en moins, maintenant qu’il garde son électorat tout en l’élargissant, il devrait triompher sans peine.

Calculez l’issue du vote vous-mêmes à partir de la figure 2. A cause de la perte de 2% des électeurs, Le Pen n’est plus qualifié au second tour, au profit de Fillon. Fillon obtiendra alors 37% au second tour (grâce au soutien massif de l’électorat Le Pen), alors que Macron s’arrêtera à 28%. Fillon sera donc président (Figure 3).

En quoi est-ce gênant ? D’abord pour le bon sens, car dans notre fiction, Macron ayant bien gouverné, il a non seulement continué à satisfaire son électorat de 2017, mais il a aussi séduit des électeurs supplémentaires. Mais c’est surtout politiquement gênant, puisque Macron n’a aucun intérêt à gagner des voix parmi l’électorat du Rassemblement National. Il doit en effet viser un second tour contre Le Pen. Il va donc essayer de séduire l’électorat Fillon et de déplaire à l’électorat Le Pen. Sachant que le premier est constitué de cadres supérieurs et de professions libérales, alors que le second est largement composé d’ouvriers et d’artisans, Macron n’a pas d’autre choix : plaire aux premiers, déplaire aux seconds. S’il veut gagner, il doit mettre en place une politique inégalitaire. Ses choix sont donc partiellement guidés par les contraintes de notre système électoral.

Le jugement majoritaire

Est-ce que ce le jugement majoritaire peut résoudre cet important problème? Le jugement majoritaire est un mode de scrutin par évaluation qui conduit à l’élection du candidat ayant la meilleure « évaluation médiane ». Autrement dit, si une personne pense que je suis bon cuisinier, une autre pense que je suis plutôt moyen et une dernière pense que je suis carrément mauvais, mon évaluation médiane est celle du milieu : « moyen ».

Par conséquent, il semble impossible qu’un candidat qui avait gagné auparavant, puisse perdre en ayant amélioré ses évaluations. Cela est cependant possible si l’électorat évolue (s’il augmente ou, au contraire, s’il se réduit).  Autrement dit, cela peut se produire si entre 2017 et 2022 quelques jeunes obtiennent le droit de vote ou si des personnes âgées meurent.  

Postulons donc deux candidats, Macron et Le Pen et neuf électeurs (on peut multiplier par cinq millions, si on veut s’approcher de la taille de l’électorat français). Le jugement majoritaire détermine le gagnant en cherchant l’évaluation du 5ème électeur, l’électeur médian. D’après la figure 4 (les deux colonnes de gauche), selon cet électeur, Macron est « assez bon », alors que Le Pen est « acceptable ». Macron sera donc président.

La partie droite de la Figure 3 analyse la situation cinq ans plus tard, en 2022. Supposons d’abord que chaque électeur vote comme 2017. Supposons également que personne ne soit mort, mais, par contre, deux adolescents aient atteint la majorité et puissent maintenant voter. La jeunesse (dans ce jeu fictionnel) adore Macron : les deux le trouvent « excellent », alors qu’ils considèrent Le Pen simplement « bonne ». A priori, donc, tout va bien pour Macron qui avait déjà gagné sans les deux jeunes en 2017.

Mais hélas, après calcul, il va être déçu. Les votants sont maintenant onze, par conséquent l’évaluation médiane est celle du 6ème électeur. Comptez : le sixième considère Macron « assez bon » et Le Pen « bon ». C’est donc Le Pen qui est élue présidente, grâce à ces deux jeunes qui ont évalué de façon enthousiaste le bilan de Macron.  

Pour gagner, Macron aurait dû se débrouiller pour que les deux jeunes considèrent Le Pen au mieux acceptable, quitte à être lui-même considéré médiocre ou à rejeter. En fait, avec le jugement majoritaire, Macron n’aurait aucun intérêt à plaire aux deux jeunes car même si ces derniers le détestent, cela ne lui coutera rien lors des élections. Il a en revanche intérêt à ce que les jeunes notent moyennement Le Pen. Au lieu de gouverner le mieux possible, de faire des bonnes politiques pour la jeunesse, il essayera donc de décrédibiliser son adversaire après des jeunes, quitte à se décrédibiliser lui-même.

Le système par approbation

C’est ce qu’il passe lorsqu’un système n’est pas monotone : les stratégies politiques vont être contraintes par le système électoral et poussent les candidats à mal faire leur travail. Pour répondre à ce problème, Balinski a raison de dire que le jugement majoritaire a beaucoup moins de chances que le système à deux tours de produire ce paradoxe, lorsque la population est grande. Néanmoins, il reconnait implicitement que, lorsqu’elle est petite (dans les associations ou groupes militants où ce système est prisé par exemple), il vaut mieux ne pas utiliser le jugement majoritaire.

Le système par approbation, lui, est extrêmement simple. Chacun vote pour autant de candidats qu’il souhaite, et celui qui a plus de voix gagne. Par exemple, si quelqu’un acceptait d’avoir comme président Le Pen et Fillon, mais pas Macron, il voterait pour les deux premiers. D’après les expériences qui ont été menées en France, avec le vote par approbation, il n’y aurait pas eu de changement notable depuis 2002 concernant l’identité du président, sauf en 2007 où le gagnant aurait été probablement Bayrou 10. Au demeurant, ce résultat permet de ne pas oublier que l’opinion des gens compte aussi. Quand la majorité préfère un candidat aux autres, ce candidat aura plus de chances de gagner, quel que soit le mode de scrutin.

Outre sa simplicité, le vote par approbation a beaucoup de qualités, en particulier celle d’être monotone. Autrement dit, il est impossible, avec ce système, que les paradoxes décrits plus haut apparaissent. Ainsi, tous les candidats ont intérêt à satisfaire un maximum d’électeurs.

Une affaire de marketing ? Le succès du jugement majoritaire 

J’avoue que, à ce jour, je continue de penser que le système par approbation est meilleur que le jugement majoritaire. Mais j’ai été impressionné par la campagne dont ce dernier a bénéficié en France. Un système électoral, au fond, est comme une marque de vêtement. Sa qualité n’est pas suffisante pour être vendu, il faut également de la publicité.

Lorsqu’on se rend sur wikipedia.fr, l’article sur le jugement majoritaire compte presque 3000 mots, alors que celui sur le vote par approbation n’en a que 576. On pourrait avoir l’impression que ce dernier est la petite lubie de quelques snobs. Mais en regardant de plus près, l’article sur le vote par approbation existe en 21 langues, alors que l’article sur le jugement majoritaire en 4 seulement. En anglais, il faut 2500 mots pour expliquer le jugement majoritaire, 6300 pour expliquer le vote par approbation. La qualité de ce dernier peut aussi s’apprécier par le fait que l’association états-unienne de mathématique (qui inclue les spécialistes des théorèmes sur les modes de scrutin) l’a choisi comme mode de scrutin.  

Evidemment, le fait que le jugement majoritaire ait été créé par des chercheurs français, qui en ont fait une grande publicité en France, ne le discrédite pas. Mais il ne devrait pas l’avantager pas non plus. Or, cette publicité produit une exposition sélective : beaucoup de personnes finissent par connaitre le jugement majoritaire, mais sans connaitre ses alternatives, comme le vote par approbation. Sans trop y réfléchir, donc, le français boira du vin et soutiendra le jugement majoritaire. L’américain, lui, optera pour le soda et le vote par approbation. Mais c’est seulement en y réfléchissant qu’on peut se faire un véritable avis. Personnellement, après avoir pesé le pour et le contre, je prends le vin et le vote par approbation.

Pourquoi punir les siens conduit à discriminer les autres. Une illustration du biais d’exotisme

S’abstenir de juger les personnes issues d’une culture différente de la nôtre ou prendre garde ou ne pas interpréter leurs actions comme si elles relevaient de nos normes sont a priori des bons principes. L’étude de Habyarimana que je présente ici nous indique même que ces principes sont plus observés qu’on ne pourrait le croire. Ils peuvent toutefois conduire à autant de discriminations que l’attitude inverse. Retour sur cette étude qui nous alerte sur ce qu’on pourrait qualifier de biais d’exotisme, miroir du biais d’ethnocentrisme.

Une longue tradition en sciences sociales et anthropologie nous a transmis deux enseignements : 1. Que nous avons tendance à être ethnocentriques, c’est-à-dire à considérer le monde avec notre propre culture comme modèle de référence. 2. Que l’ethnocentrisme conduit à des formes d’intolérance et de racisme, car il conduit à condamner les comportements étranges ou différents des nôtres comme s’ils venaient de gens éduqués dans notre culture 11. Cela nous conduit, par exemple, à condamner des sociétés cannibales en vertu du fait que, chez nous, les comportements cannibales sont condamnés.

Ces deux éléments ne sont pas dénués de fondement et nous faisons souvent l’expérience de juger les comportements d’autrui, comme si le modèle de référence était le nôtre.  Par exemple, le fait qu’on désigne encore aujourd’hui d’« invasions barbares » ce que les allemands qualifient de « migrations des peuples germaniques » révèle cette différence fondamentale de point de vue. Les récits provenant de notre culture nous présentent comme les « envahis », victimes de brutes abreuvées au lait de chèvre et dont le langage est incompréhensible. Nous les appelons de la façon dont nos ancêtres les ont vu.

Un exemple de représentation des « invasions barbares »

Cependant, s’éloigner autant que possible de toute tentation ethnocentriste n’est pas forçement une bonne attitude. Il existe un biais opposé au biais d’ethnocentrisme qu’on pourrait qualifier de biais d’exotisme. Il consiste à considérer que, parce que les gens sont élevés dans une autre culture, ils ne doivent pas être jugés selon les normes qui régissent notre société. Ce biais est 1. extrêmement courant, au moins autant que le biais d’ethnocentrisme et 2. susceptible de nous conduire à un comportement raciste ou discriminatoire.

Habyarimana et ses collègues montrent ce problème à travers une étude menée en Ouganda 12, l’un des pays les plus ethniquement 13 diversifiés du monde. Ils partent de l’idée, globalement déjà constatée 14, que les individus coopèrent moins avec des personnes issues d’un autre groupe. Pour vérifier si cela s’applique aussi à la société ougandaise, les auteurs mettent en place un jeu.

Diversité ethno-linguistique en Ouganda.
Source : Bernard Calas (2000) « Recompositions ougandaises. Les dividendes géographiques de la paix et de la légitimité politique » dans Jean-Louis Chaléard, Roland Pourtier (dir) Politiques et dynamiques territoriales dans les pays du Sud, p. 171-196

Mesurer la coopération est assez simple : il suffit de faire jouer les gens au « dilemme du prisonnier ». Dans ce jeu, deux joueurs doivent décider de conserver pour eux-mêmes un billet de 1 000 shillings ougandais (SO) ou de l’utiliser pour un projet de groupe. Si les deux joueurs choisissent la deuxième option, ils gagneront un bonus de 500 SO chacun. Naturellement, s’ils choisissent la première option, les deux garderont leurs 1000 SO. Le problème est que si l’un des deux choisit d’utiliser ses 1000 SO pour le groupe, alors que l’autre ne le fait pas, le premier recevra 750 SO et le second 1750 SO. Les deux joueurs doivent faire leur choix simultanément et ne sont pas en mesure d’observer les actions de l’autre joueur.

Voici comme ça marche :

Matrice des gains

Si vous êtes Dembe vous avez intérêt à garder l’argent. Car si Mukisa le conserve aussi vous gagnerez 1000 au lieu de 750 SO. En revanche, si Mukisa l’utilise pour le groupe, vous aurez 1750 au lieu de 1500 SO. Dans les deux cas, vous gagnerez 250 SO en gardant l’argent pour vous. Si vous êtes Mukisa vous faites exactement le même raisonnement. Le problème est qu’au final vous aurez 1000 SO chacun, alors que si vous aviez coopéré vous auriez 1500 SO chacun. Pour que la coopération ait lieu, donc, deux conditions doivent être satisfaites : un fort degré de confiance dans le fait que l’autre joueur ne garde pas l’argent pour lui et une volonté de ne pas vouloir arnaquer l’autre joueur

Les joueurs avaient, en plus, accès au nom et à la photo du joueur qu’ils avaient en face d’eux.  Il s’agissait bien sûr d’une information créée de toutes pièces par les expérimentateurs, mais elle avait une fonction claire : à partir du nom et de la photo, les joueurs prêtaient une appartenance ethnique à l’individu.  

Conformément aux études antérieures, les résultats montrent que les personnes coopèrent davantage lorsqu’ils jouent avec une personne de leur propre ethnie. Lorsque l’autre joueur est d’une ethnie différente, le taux de comportement coopératif baisse de 18%. Jusqu’ici rien de nouveau. Mais pourquoi agissent-ils ainsi ? Parce qu’ils n’ont pas confiance en l’autre joueur ou parce qu’ils souhaitent l’arnaquer?

Une variante de cette expérimentation conduit à l’explication suivante : les sujets coopèrent moins avec les personnes des autres ethnies parce qu’ils ne savent pas si ces personnes sont attachées aux mêmes valeurs de coopération et réciprocité qu’eux. Si cela n’est pas le cas, ils ne leur en tiennent pas rigueur, puisqu’ils attribuent cela à leur appartenance à une autre culture. Cependant, dans le doute, les sujets préfèrent ne pas développer de projets collectifs avec ces « étrangers ».

Avant de développer ce point, voici la façon dont les auteurs en font la démonstration. Le même jeu a été mis en place avec, en plus, un troisième joueur. Ce joueur observe les actions des deux premiers joueurs et peut choisir de punir l’un des deux ou les deux pour leur comportement. Sanctionner quelqu’un coûte 500 SO au troisième joueur (soit environ 1/20ème de ses avoirs) et entraîne la suppression des gains du joueur sanctionné.

Comment se comporte le troisième joueur ? En général, il punit les gens qui gardent les 1000 SO pour eux. Mais surtout, il punit davantage les joueurs issus du même groupe ethnique que lui, surtout lorsque ceux-ci jouent contre quelqu’un qui vient aussi du même groupe ethnique (c’est-à-dire dans un trio homogène). Dans cette configuration, garder l’argent pour soi conduit à avoir 23% de chances en plus d’être puni par le troisième joueur.

Ce résultat nous renseigne sur deux éléments importants. Premièrement, les ougandais ne sont pas si ethnocentristes, puisque beaucoup d’entre eux sanctionnent seulement les membres de leur propre groupe ethnique. Ils se permettent donc uniquement de juger les personnes qui, selon eux, devraient agir selon des normes similaires aux leurs.  En revanche, ils sont bien plus tolérants avec les autres, dont ils ne connaissent pas la culture. Deuxièmement, c’est précisément parce qu’ils renoncent à juger les gens issus d’une autre culture, qu’ils renoncent également à coopérer avec eux. Pour coopérer avec quelqu’un il faut s’assurer qu’il partage les mêmes normes que nous, qu’il soit conscient que la tricherie existe et qu’ils la jugent, de façon partagée, comme quelque chose de socialement indésirable.  

On peut tirer de nombreuses implications de cette recherche – bien que circonscrite au cas ougandais – sur la façon de conceptualiser et de lutter contre le racisme.

Elles révèlent que les comportements discriminatoires (au logement, à l’embauche) peuvent, aussi, être dûs à un trop faible niveau d’ethnocentrisme. Employeurs ou propriétaires, peuvent refuser de considérer le monde avec leur propre culture comme modèle de référence et, de ce fait, refuser d’entretenir un commerce avec des gens qui ne sont pas issus de leur propre culture.   

Ont-ils raison ? Pas toujours. On a tendance, certainement, à exagérer les différences entre cultures. A penser, par exemple, que les cannibales, parce qu’ils sont cannibales, obéissent à des normes radicalement opposées aux nôtres.

Quoiqu’il en soit, se méfier de l’ethnocentrisme n’est donc pas suffisant pour être à l’abri du racisme. Il faut également se méfier de la tendance inverse, l’exotisme. Il consiste à exagérer les différences entre cultures ou êtres humains. A penser que chaque culture ne peut pas se comprendre quand on est à l’extérieur, comme l’a prêché avec succès Clifford Geertz 15. Cela semble un bon principe, mais poussé trop loin, il ne l’est plus.

Quand les sciences sociales s’intéressent aux coutumes bizarres

Les récits historiques et archives – ou, du moins, celles qui nous parviennent – regorgent d’exemples de pratiques bizarres ou franchement barbares. Prenons, par exemple, l’exemple de l’ordalie ou jugement de Dieu pratiquée en Europe durant le Moyen-Âge. Elle consiste à soumettre un suspect à une épreuve douloureuse et potentiellement mortelle dont l’issue, déterminée par Dieu lui-même, décidait de l’innocence ou de la culpabilité du suspect. L’ouvrage What the Fuck?! L’économie en absurdie de Leeson (2018) nous donne des outils pour décrypter ces usages.

Rien d’étonnant à ce que, en se plongeant, dans le passé, le récit de pratiques comme la vente aux enchères publique de femmes mariées pratiquées en Angleterre entre la fin du 18ème et du 19ème siècle suscite la réprobation et l’indignation. Cette réaction est même, à de maints égards, salutaire, et alimentée par la représentation médiatique et cinématographique du passé lointain. Le Moyen-Âge y est volontiers présenté comme une période obscure, où régnaient la pauvreté, la crédulité et la barbarie.

Vente aux enchères de femme mariée (1812-1814), Thomas Rowlandson

L’objectif de ce livre est de prendre le contrepied de cette réaction pour pousser le lecteur à se questionner sur ce qui conduit les personnes à adopter et à se prêter à de telles pratiques. Face à cette question, deux stratégies sont possibles. La première consiste à juger ces pratiques comme relevant de l’irrationnel et de l’exotique. De nombreuses pratiques archaïques ont, d’ailleurs, donné lieu à des descriptions denses mettant en avant leur caractère révolu et unique sur le plan de l’histoire de l’humanité 16. La second stratégie consiste à retracer, dans le passé, les facteurs qui expliquent la création, le maintien et la disparation de tels usages et qui pousseraient tout un chacun, placé dans les mêmes circonstances, à se prêter aux mêmes bizarreries.  A l’exotisme s’oppose donc la pensée analytique, basée sur une théorie du comportement humain, valable au-delà des circonstances historiques et géographiques.

Outil d’analyse et méthode employée

La grille d’analyse que choisit l’auteur de l’ouvrage est celle de la théorie du choix rationnel. Cette théorie repose sur un postulat et un outil :  

  • Postulat : Les individus sont rationnels dans un sens très précis : ils disposent de préférences qu’ils s’efforcent de poursuivre de la façon la plus efficiente possible (selon un calcul coût/ bénéfice) dans la limite de l’information dont ils disposent (et de leur capacité à la traiter)
  • Outil : Les calculs coût/ bénéfices des individus dépendent des contraintes et des « coups de pouce » (les incitations) auxquels ces derniers sont soumis. Ces incitations sont de divers types : institutions politiques, droit,… Si la rationalité (au sens défini plus haut) ne varie pas à travers les âges et les lieux, les incitations, elles, varient.

L’hypothèse est donc la suivante : une fois ces incitations décryptées, des pratiques étranges révèlent leur logique. Attention, il ne s’agit pas ici de justifier de telles pratiques mais de les analyser de la façon la plus rigoureuse possible.   L’intérêt de cette approche est de permettre de considérer l’irrationalité ou la folie de nos ancêtres comme l’hypothèse la plus coûteuse. Avant d’y recourir, autant épuiser des explications considérant que les personnes hier et aujourd’hui développent des stratégies ingénieuses pour régler les problèmes ils sont confrontés. Armés de cette grille analytique, la lectrice et le lecteur peut débuter son tour de l’absurde – le livre étant rédigé comme une visite commentée, où les analyses sont rythmées par les questions et réactions du public 17. La méthode employée est celle du récit analytique : la pratique ancienne est décryptée ainsi que le contexte idéologique, juridique et politique dans lequel elle s’insère (les fameuses incitations). L’auteur démontre ensuite comment les incitations expliquent l’existence de pratiques bizarres, et comment un changement dans ces incitations produit une disparition graduelle de la croyance ou sa persistance sous de nouvelles formes. L’analyse est fouillée sur la base de documents historiques, présentés en note. Pour les plus experts, une annexe modélise la pratique étudiée sur la base d’équations mathématiques.

L’exemple de l’ordalie

L’ordalie par le feu

Reprenons l’exemple de l’ordalie pour illustrer le propos. Quelques faits de base d’abord. Ce type de jugement a perduré entre le 9ème et le 13ème siècle en Europe. Deux types furent particulièrement courant. L’ordalie par le feu commandait de faire plonger la main du suspect dans de l’eau bouillante ou la faire brûler par du fer chaud (iudicium aquae fervantis and iudicium ferri). Si le suspect n’était pas blessé, un miracle avait démontré son innocence. L’ordalie par l’eau froide consistait en jeter à l’eau le suspect (probatio per aquam frigidam). Si le malheureux flottait, il était reconnu coupable. Ce jugement était très encadré (on ne rigole pas avec l’invocation de Dieu) et était réservé aux crimes les plus graves (selon les normes de l’époque) et aux cas où la vérité ne pouvait être connue par d’autres moyens (témoignage confondant ou aveux) (p.10).

Face à cette pratique, quelles sont les possibilités d’un suspect ? Précisons d’emblée qu’au Moyen-Âge la croyance en Dieu était très répandue et l’influence de l’Église très forte. Elle transparait d’ailleurs tout au long du livre. S’il est coupable, le suspect a fortement intérêt à avouer tout de suite, accepter la sentence et éviter une souffrance supplémentaire et inutile. S’il est innocent, le choix est plus difficile mais, comme l’individu a, en plus, de fortes chances de croire en Dieu, il peut tenter l’ordalie en espérant échapper à une sanction terrible et injuste.

Étrangement, les prêtres semblent parfaitement informés de ce raisonnement chez le suspect. En effet, les archives sur l’ordalie concluent au miracle dans la majorité des cas (entre 62,5% et 89 %). En reprenant les récits de jugement par le feu, l’auteur montre qu’un temps très long s’écoule entre le chauffage de l’eau ou du fer et le châtiment. La cérémonie est complexe et laissée à la totale discrétion du prêtre. Cela laisse largement la possibilité au fer et à l’eau de refroidir. Dans le cas de la mise à l’eau, les archives suggèrent que les prêtres sélectionnent les personnes les plus susceptibles de couler pour ce châtiment (les hommes lourds).

Aujourd’hui, avec l’ADN, les empreintes et autres avancées scientifiques, nous avons moins besoin de manipuler les suspects de la sorte. De plus, dans les sociétés connaissant un déclin des croyances religieuses, le jugement de Dieu n’est guère une manière de distinguer les coupables et les innocents. Cependant, nous pratiquons aussi nos « ordalies » à nous. L’auteur montre ainsi qu’aux États-Unis, la croyance en la toute-puissance de la technologie est plus développée que celle dans les croyances religieuses. Le système judiciaire y pratique donc le recours « détecteur de mensonge », une invention maison. Officiellement, il s’agit d’une technologie de pointe permettant de savoir si le suspect ment sur la base de manifestations physiologiques. En réalité, l’instrument si peu fiable qu’il ne sert quasiment à rien. Enfin, si : il sert à évaluer la motivation du suspect à se soumettre à une telle épreuve. S’il y va sans crainte, tel jadis un innocent face à l’eau bouillante, alors les enquêteurs pourront écarter la piste.

Cet ouvrage mérite sa place dans la bibliothèque de tout penseur critique et enseignant en pensée critique. Il invite à se méfier de notre tendance à considérer les pratiques passées comme exotiques et montre que les sciences sociales disposent d’outils pour analyser des institutions juridiques bizarres. Le raisonnement pourra être appliqué avec profit aux institutions actuelles. C’est aussi une mine d’or pour enseigner la pensée critique dans le supérieur ou, pourquoi pas, avec des lycéens sur la base d’exemples particulièrement bien choisis.


CorteX_Chiffres_de_la_delinquance_Diagrammes_Surrepresentation

Sciences politiques et Statistiques – Analyse de chiffres sur la délinquance

Dans les nombreux débats sur la délinquance 18 pleuvent chiffres et statistiques, la plupart du temps sans qu’aucune précaution ne soit prise pour replacer ces chiffres dans leur contexte ou pour expliquer ce qu’ils traduisent réellement.
Pourtant, ces chiffres, particulièrement difficiles à obtenir que ce soit pour des raisons techniques ou éthiques, ont un impact très fort sur les représentations que nous nous faisons de la situation. Il m’a donc semblé important de faire un bilan de ce qui était vérifié et ce qui ne l’était pas, pour lutter contre les idées reçues et leurs conséquences sociales.
 
Le matériau de base de cet article est le fameux débat entre B. Murat et E. Zemmour chez T. Ardisson.
Une des notions statistiques clés abordées ici est la notion de surreprésentation.

Extrait de Salut les terriens, 6 Mars 2010.

Retranscription de la fin de la discussion :
B. Murat :
Quand on est contrôlé 17 fois dans la journée, ça modifie le caractère
E. Zemmour :
Mais pourquoi on est contrôlé 17 fois par jour ? Pourquoi ? Parce que la plupart des trafiquants sont noirs et arabes. C’est comme ça, c’est un fait !
B. Murat :
Pas forcément, pas forcément.
E. Zemmour :
Ben, si.

A la suite de cette émission, E. Zemmour déclare dans Le Parisien du 08.03.2010 :

Ce n’est pas un dérapage, c’est une vérité. Je ne dis pas que tous les Noirs et les Arabes sont des délinquants ! Je dis juste qu’ils sont contrôlés plus souvent parce qu’il y a plus de délinquance parmi eux. Demandez à n’importe quel policier.

Avant-propos

Si le but premier de ce travail est d’analyser ces échanges d’un point de vue statistique, il me semble tout de même nécessaire de commencer par faire quelques remarques :

  • Autorité
    Quelle est la l’expertise de E. Zemmour et B. Murat sur le sujet ? Ont-ils une expertise scientifique c’est-à-dire dépassant le cadre de la simple opinion ? Ont-ils réalisé une étude sociologique sur la question ? Ont-ils réalisé un bilan des connaissances sur le sujet ? Si la réponse est non, il y a de fortes chances qu’ils n’expriment sur ce plateau qu’une opinion personnelle. Se poser cette question (et aller chercher la réponse) est essentiel pour déceler d’éventuels arguments d’autorité.
  • Source de l’information – Le témoignage
    Quelles sont les sources des deux protagonistes ?
    Pour B. Murat, on ne sait pas.
    Pour E. Zemmour, n’importe quel policier. Mais n’oublions pas ce proverbe critique (ou facette zététique) : un témoignage, mille témoignages, ne font pas une preuve. Le fait que mille personnes assurent avoir vu des soucoupes d’extra-terrestres n’est pas une preuve de leur existence.
  • Prédiction auto-réalisatrice
    Les propos d’E. Zemmour constituent une prédiction auto-réalisatrice. Considérons en effet qu’un délinquant est quelqu’un qui a été qualifié comme tel après avoir été arrêté par la police et acceptons momentanément les prémisses d’E. Zemmour :
    (a) La plupart des trafiquants sont Noirs et les Arabes
    (b) Le contrôle d’identité est efficace pour détecter des trafiquants.
    Si une majorité de policiers pensent que la phrase (a) est vraie, ils tendront à contrôler plus les Noirs et les Arabes. Et si la phrase (b) est vraie, ils tendront à trouver, de fait, plus de délinquants Noirs et Arabes. Ils conforteront ainsi les dires d’E. Zemmour.
  • Plurium interrogationum, essentialisation et effet cigogne
    Dans la dernière partie de ce travail, nous discutons du sens et de la validité statistique de la phrase Il y a plus de délinquance chez les Noirs et les Arabes, mais nous n’aborderons pas une autre prémisse qui, même si ce n’est pas l’intention de l’auteur, est très souvent entendue dans cette même phrase : Les Noirs et les Arabes sont plus délinquants (par essence) que les Autres.
    L’analyse de cette prémisse, ou plus exactement du raisonnement Il y a plus de Noirs et d’Arabes en prison ; on peut en déduire que les Noirs et les Arabes sont plus délinquants que les Autres fera l’objet d’un TP à part entière. C’est un bel exemple d’effet cigogne.
    En attendant, vous pouvez lire un article sur ce sujet dans le livre Déchiffrer le monde de Nico Hirtt, intitulé Méfiez-vous des grandes pointures ; il y est expliqué comment d’autres variables sont corrélées, tout autant que la variable « être Noir ou Arabe », à la fréquentation des prisons : pauvreté économique mais aussi niveau scolaire faible, avoir des parents analphabètes ou… avoir de grands pieds – nous laissons soin au lecteur de trouver une raison à cette dernière observation. Ce dernier exemple permet, il me semble, de mesurer à quel point une corrélation interprétée sans précaution comme une causalité peut se révéler être un non sens total.

Première partie : que représentent les chiffres de la délinquance ?

B. Murat comme E. Zemmour s’appuient sur des chiffres pour étayer leurs propos et placent ainsi le débat dans le domaine des statistiques. Ils ont tous les deux beaucoup d’assurance et s’expriment comme si les chiffres allaient de soi et étaient connus de tous.
Or, quand des chiffres sont avancés pour étayer un argumentaire sur la délinquance, il est parfois très difficile de comprendre de quoi l’on parle exactement, ce que l’on aurait voulu dénombrer et ce que l’on a vraiment compté.
D’ailleurs, les organismes qui produisent ces chiffres précisent et décrivent très minutieusement ce qu’ils ont dénombré exactement ; leurs chiffres sont à prendre pour ce qu’ils sont, et non pour ce qu’on voudrait qu’ils soient.

Voici quelques citations parmi d’autres issues de la description de la méthodologie utilisée par la Direction centrale de la police judiciaire pour réaliser le rapport intitulé Criminalité et délinquance constatées en France (2007).

Que choisit-on de compter pour décrire la criminalité et la délinquance en France ?

Page 12 : B – LA REPRÉSENTATIVITÉ DES STATISTIQUES
Que représentent les statistiques de la criminalité et de la délinquance constatées par les services de police et les unités de gendarmerie ? Autrement dit, quelles en sont les limites dans le champ des infractions ?

1 – LE CHAMP DES STATISTIQUES
Il ne comprend pas les infractions constatées par d’autres services spécialisés (Finances, Travail…), les contraventions, les délits liés à la circulation routière ou à la coordination des transports.
La statistique ne couvre donc pas tout le champ des infractions pénales. Elle est limitée aux crimes et délits tels que l’opinion publique les considère. Elle correspond bien à ce que l’on estime relever de la mission de police judiciaire (police et gendarmerie).

Tri sélectif de données : on peut constater un premier tri sélectif des données : ne sont comptés que les crimes et délits constatés. On sait cependant que dans certains cas, les victimes n’osent pas parler, comme par exemple les victimes de viols, les hommes et les femmes battus ou le harcèlement au travail…

Opinion publique pour légitimer un second tri sélectif : on peut également se demander qui est l’opinion publique et le on qui définissent si clairement ce qu’est ou non une infraction pénale. Et quelles sont les bases qui permettent à l’auteur du rapport d’affirmer que l’opinion publique ne considère pas comme infraction relevant du pénal des infractions au droit du travail, ou les circuits financiers clandestins, le blanchiment d’argent, voire le financement du terrorisme 19, qui relèvent du service TRACFIN du ministère des finances. Un deuxième tri sélectif des données est opéré.


Plus précisément, comment sont créées les variables statistiques (ici, les désignations de tel ou tel délit) ?

Page 13 : 2 – LE RAPPORT DES STATISTIQUES À LA RÉALITÉ
Il n’y a pas de criminalité « en soi » mais des comportements désignés comme illicites par la collectivité. Tout naturellement, ces comportements sont alors dénombrés à partir des « désignations » que constituent les procédures judiciaires. Un comportement illicite non « désigné » aux autorités judiciaires n’est donc pas pris en compte.

«comportements désignés» : par qui ?
Comme illicites : donc en vertu d’une loi, qui peut changer ; par exemple, l’adultère n’est plus puni pénalement depuis 1975
– par la collectivité : qui est la collectivité ? Comment s’exprime-t-elle ?

Au regard des trois derniers points, le Tout naturellement semble pour le moins incongru ; d’autant plus quand, dans la phrase précédente, il est explicitement dit Il n’y a pas de criminalité « en soi ». Il semble donc, au contraire, que la désignation des délits relève d’un choix : il est décidé que l’on comptera un acte comme délit s’il peut être désigné par une des procédures judiciaires répertoriées au préalable, cette liste étant décidée par la collectivité. Et ce choix peut évoluer. Rien de naturel donc.

Comment interpréter la variation d’une variable ?

Page 13 : Par ailleurs, il faut noter que le nombre de faits constatés peut s’accroître ou diminuer selon l’importance des moyens mis en oeuvre pour combattre un phénomène (comme par exemple la toxicomanie) ou à la suite de variation dans le mode de sanction des infractions (par exemple, la dépénalisation en 1991 des chèques sans provision d’un faible montant)

Effet cigogne : ce qui se dit ci-dessus permet de prédire une floppée d’effets cigognes dans les médias, lors de repas dominicaux ou sur les terrasses de cafés : la variation d’un chiffre ne reflète pas nécessairement la variation du nombres de délits effectifs mais peut refléter une hausse des moyens mis en oeuvre pour le combattre. C’est un biais très sérieux. Par exemple, plus il y a d’agents sur le terrain pour mesurer la vitesse des automobilistes, plus il y a d’excès de vitesse constatés. Il n’est absolument pas possible d’en conclure qu’il y a de plus en plus de chauffards.
Vous repèrerez quasiment tous les jours des effets cigognes à ce sujet dans vos médias préférés.


Comment sont produites les données ?

Page 13 : 3 – LA QUALIFICATION DES FAITS
[…] Chaque fait à comptabiliser est affecté à tel ou tel index de la nomenclature de base en fonction des incriminations visées dans la procédure. Naturellement, il ne s’agit que d’une qualification provisoire attribuée par les agents et officiers de police judiciaire en fonction des crimes et délits que les faits commis ou tentés figurant dans les procédures sont présumés constituer. Seules les décisions de justice établiront la qualification définitive, quelques mois et parfois plus d’une année après la commission des faits. Or, il ne saurait être question d’attendre les jugements pour apprécier l’état de la criminalité, de la délinquance et de ses évolutions.

Effet paillasson : Une fois les variables créées, il est dit explicitement que, par manque de temps, il n’est pas possible d’attendre une désignation définitive des faits, ce qui rajoute un biais. Comment, en effet, s’assurer que la qualification des faits par un agent de police est celle qui sera retenue par la suite ? D’autant plus que l’agent n’est pas un observateur neutre, la qualification des faits pouvant influencer sa propre évaluation par ses supérieurs ; il est alors envisageable que cela puisse modifier, même de manière involontaire, son évaluation de la situation. Par ailleurs, rien n’assure que la personne poursuivie pour ce crime ou ce délit sera jugée coupable.


Conclusion

Tris sélectifs et invocation de l’opinion publique voire pour définir ce qui constitue un acte de délinquance, non indépendance des variables « nombre de délinquants » et « nombre d’agents luttant contre la délinquance », relevé des données biaisé : ces chiffres sont à utiliser avec de nombreuses précautions.


2ème partie : quelles statistiques sur le contrôle d’identité

Propos de B. Murat :

« Quand on est contrôlé 17 fois par jour »

ou

  • Quelles sources disponibles ? Quelle méthodologie ? Quels résultats ?
  • Quelles conséquences d’une mauvaise utilisation des chiffres ?

D’où vient le chiffre 17 ?

Comme B. Murat ne cite pas ses sources, on peut émettre différentes hypothèses : il connaît quelqu’un qui connaît quelqu’un (Ami d’un ami) et l’information mériterait d’être vérifiée ; ou il utilise une exagération pour mettre en relief son propos (effet impact d’une hyperbole) ; ou il a lu une étude sur le sujet ; ou il propage une idée commune mais non vérifiée. Je n’ai trouvé trace d’aucune étude énonçant ces chiffres, mais il existe une étude sur le sujet, menée en 2009 par deux membres du CESDIP – laboratoire de recherche du CNRS mais également service d’études du ministère de la Justice – F. Jobard et R. Lévy , intitulée Police et minorité visible : les contrôles d’identité à Paris.
Je n’en ai pas trouvé d’autres. Il est d’ailleurs dit p. 9 du rapport : Cette étude, qui présente des données uniques sur plus de 500 contrôles de police, est la seule menée à ce jour, propre à détecter le contrôle à faciès en France.

Quelle méthodologie et quelles notions pour établir des satistiques sur les contrôle au faciès ?

F. Jobard explique la méthodologie employée :

{avi}CorteX_Delinquance1_Jobard_Methodologie_controle_identite{/avi}

Les notions de surreprésentation et d’odds-ratio :
Que signifie la phrase « Telle catégorie est plus contrôlée que telle autre » ? Comment le mesurer ?
Quand on parle de surreprésentation, il faut faire attention à ne pas détacher des données importantes ; par exemple, si 10 Noirs et 5 Blancs ont été contrôlés, on ne peut pas affirmer pour autant que les Noirs sont 2 fois plus contrôlés que les Blancs. En effet, si les contrôles se font dans un lieu où se trouvent deux fois plus de Noirs que de Blancs, la population Noire contrôlée n’est pas surrepésentée dans la population contrôlée.

CorteX_Chiffres_de_la_delinquance_Diagrammes_Surrepresentation


Dans la première population imaginée, nous avons :
– 1 000 Noirs ou Arabes (bleu)
– 500 Blancs (orange)
– 10 trafiquants Noirs ou Arabes (bleu)
– 2 trafiquants Blancs (orange)

Les Noirs et les Arabes sont surreprésentés.

Dans la deuxième population imaginée, nous avons :
– 1 000 Noirs ou Arabes (bleu)
– 500 Blancs (orange)
– 10 trafiquants Noirs ou Arabes (bleu)
– 5 trafiquants Blancs (orange)

Les Noirs et les Arabes ne sont pas surreprésentés.

Il faut donc impérativement connaître la composition de la population globale du lieu d’observation avant de conclure à la surreprésentation et utiliser un outil statistique qui en rende compte, par exemple le odds-ratio dont vous pourrez trouver une définition sur wikipedia.

F. Jobard et R. Lévy nous expliquent comment l’interpréter :

L’odds-ratio compare entre elles les probabilités respectives de contrôle des différents groupes Les odds-ratios présentés dans ce rapport ont tous comparé les groupes relevant des minorités visibles à la population blanche, de sorte que l’odds-ratio se lit de la manière suivante : « Si vous êtes Noir (ou Arabe, etc.), vous avez proportionnellement x fois plus de probabilités d’être contrôlé par la police que si vous étiez Blanc ». L’odds-ratio est reconnu comme la meilleure représentation statistique de la probabilité affectant différents groupes d’une même population compte tenu de la composition de cette population.
L’absence de contrôle au faciès correspond à un odds-ratio de 1,0 : les non-Blancs n’ont pas plus de probabilité d’être contrôlés que les Blancs. Les odds-ratios allant de 1,0 à 1,5 sont considérés comme bénins, ceux allant de 1,5 à 2,0 comme le signe d’un traitement différencié probable. Les ratios supérieurs à 2,0 indiquent qu’il existe un ciblage des minorités par les contrôles de police.

Quels sont les résultats de l’étude ?

  1. Sur l’ensemble des 5 lieux d’observation, les Noirs (resp. les Arabes) ont entre 3,3 et 11,5 fois (resp. entre 1,8 et 14,8) plus de chances d’être contrôlés que les blancs. Le contrôle « au faciès » est donc avéré.
  2. Cependant, d’autres variables sont importantes, en particulier la tenue vestimentaire. Comme il l’est précisé dans le résumé de l’étude p. 10.
    Il ressort de notre étude que l’apparence vestimentaire des jeunes est aussi prédictive du contrôle d’identité que l’apparence raciale. L’étude montre une forte relation entre le fait d’être contrôlé par la police, l’origine apparente de la personne contrôlée et le style de vêtements portés : deux tiers des individus habillés « jeunes » relèvent de minorités visibles. Aussi, il est probable que les policiers considèrent le fait d’appartenir à une minorité visible et de porter des vêtements typiquement jeunes comme étroitement liés à une propension à commettre des infractions ou des crimes, appelant ainsi un contrôle d’identité.
    Il est important de noter que plusieurs corrélations – entre « être Noir ou Arabe », « être habillé jeune » et « être contrôlé »- sont établies. La relation de causalité « être Noir ou Arabe » implique « être contrôlé » mérite donc d’être discutée. En effet, si nous exagérons les faits et que nous supposons que tous les Noirs et Arabes et seuls les Noirs et les Arabes s’habillent jeunes, on ne saurait pas si le critère du contrôle est « être Noir ou Arabe » ou « être habillé jeune ».
    En réalité, la force prédictive de ces deux variables est à peu près équivalente.[…]En tout état de cause, même si l’apparence vestimentaire était la variable-clé de la décision policière, cela aurait un impact énorme sur les minorités visibles, dans la mesure où leurs membres sont plus susceptibles que les Blancs d’arborer une tenue « jeune ». En effet, deux tiers des personnes en tenue « jeune » appartiennent également à une minorité non-Blanche. Si l’on considère les trois groupes principaux, seulement 5,7% des Blancs de la population de référence portent une tenue « jeune », contre 19% des Noirs et 12,8% des Arabes. En d’autres termes, on peut dire de la variable « tenue jeune » qu’elle est une variable racialisée : lorsque la police cible ce type de tenues, il en résulte une surreprésentation des minorités visibles, en particulier des Noirs, parmi les contrôlés.
  3. Sur la fréquence des contrôles (attention, ces chiffres sont basés sur la déclaration des personnes contrôlées et n’ont pas été établis de manière rigoureuse).
    À la question de savoir si c’était la première fois qu’elles étaient contrôlées, une grande majorité de personnes interrogées (82%) a répondu par la négative. 38% ont indiqué être contrôlées souvent, 25% ont indiqué avoir été contrôlées de deux à quatre fois par mois, et 16% ont indiqué être contrôlées plus de cinq fois par mois. Il faut remarquer que l’éventail du nombre de contrôles dans cette dernière catégorie était étendu, les personnes indiquant avoir été contrôlées entre cinq et neuf fois le mois précédent, jusqu’à un total de 20 fois.

Quelles conséquences des approximations contenues dans les propos de B. Murat ?

Il est probable que B. Murat ait gonflé ce chiffre pour appuyer son discours, et qu’il ne pensait pas vraiment que le fait de contrôler les mêmes personnes 17 fois par jour est une pratique courante dans les banlieues.

Cependant, n’oublions pas que B. Murat pour répond à l’argument : « Il y a de la délinquance dans les banlieues ». On peut alors penser qu’il sous-entend qu’une des causes de cette délinquance est la répétition des contrôles. Si cela semble plausible pour, par exemple, ce qui concerne le délit d’outrage à agents – plus on est contrôlé, plus le nombre d’occasions « d’outrager » un agent de police est élevé – je ne connais pas d’étude qui démontrerait cette relation de cause-conséquence dans le cadre général. Ceci est probablement un effet cigogne.

En revanche, ce que tend à montrer la partie qualitative du rapport de F. Jobard et R. Lévy, c’est que le contrôle d’identité est perçu comme une agression par les personnes qui en sont les cibles, même si la plupart du temps et selon l’avis même des personnes contrôlées, le contrôle est mené sans agressivité de la part des agents.

Malgré le caractère généralement neutre ou positif des jugements sur le comportement de la police, ces contrôles ont suscité des sentiments très négatifs. Quelques personnes ont simplement déclaré que la police ne faisait que son travail et que le contrôle ne les avait pas dérangées. Mais près de la moitié des personnes interrogées ont indiqué être agacées ou en colère du fait du contrôle.[…] Le préjudice que les pratiques de contrôle de police causent à la relation que la police entretient avec les personnes objet de contrôle est manifeste.

Cette pratique est ressentie comme violente et humiliante par ceux qui la vivent donc la question de son efficacité mérite d’être posée. Je précise ma pensée : si le but de la politique est de minimiser la souffrance globale de la population et si le contrôle est vécu comme violent, il me semble tout de même nécessaire de s’assurer du fait que cette pratique est indispensable pour lutter contre une autre violence, celle dite « de la délinquance ». Savoir si cette condition est suffisante pour légitimer le contrôle d’identité est encore une autre question.


Partie 3 : quelles statistiques ethniques de la délinquance ?

Propos d’E. Zemmour :

« La plupart des trafiquants sont noirs et arabes. »

Quelles variables aléatoires ? Quelles sources ? Quelles conclusions ?

Trame du raisonnement :
a. La plupart des trafiquants sont noirs et arabes
+ b. Le contrôle d’identité permet d’attraper les trafiquants
=> c. En contrôlant plus les noirs et les arabes, on attrapera plus de trafiquants,

Pour tester la validité de la prémisse a, notons que la phrase La plupart des trafiquants sont Noirs et Arabes est une affirmation statistique, mal énoncée certes, mais relevant de la statistique tout de même. E Zemmour sous-entend donc que ces satistiques existent et que quelqu’un a dénombré tous les trafiquants (T), puis les trafiquants Arabes (Ta) ou Noirs (Tn) et a calculé le rapport (Ta+Tn)/T et a trouvé ainsi une probabilité supérieure à 0,5.

Quelles variables statistiques dans la prémisse (a) ?

Le « nombre de trafiquants » est une mauvaise variable statistique. On ne sait même pas de quel trafic on parle : de voitures, de drogue, de subprimes, d’armes, de sous-marins, de cigarettes, d’organes, de diamants, d’oeuvres d’art… ?
On peut supposer qu’E. Zemmour pense au trafic de drogue. Soit. Mais de quelle drogue ?
Comment peut-on compter les trafiquants ? Ceux qu’on a attrapés ? Ceux qui détenaient beaucoup de drogue ? Un peu ? Sont-ils représentatifs de la population des trafiquants ? Considère-t-on qu’on est trafiquant dès lors qu’on a « trafiqué » une fois ?
Une variable statistique pertinente – dans le sens : que l’on peut dénombrer convenablement – serait, par exemple, le « nombre de personnes condamnées pour détention de cannabis ». Une phrase qui aurait un sens statistique serait : « Il y a plus de Noirs et d’Arabes parmi les personnes condamnées au moins une fois dans les 5 dernières années pour une infraction sur les drogues ». Cette phrase a un sens; elle peut être vraie ou fausse.

« Etre Noir » ou « être Arabe » ou « être Blanc » sont également de mauvaises variables statistiques. Quand commence-t-on ou arrête-t-on d’être Noir, Arabe ou Blanc ? Quand un des parents l’est ? Ou bien les deux ? Ou une grand-mère suffirait ? Pour « trancher » la question, certains pensent même à utiliser la consonance du nom de famille, comme cela a déjà été fait dans un article du Point :

Le Point a pu consulter ces notes, dans lesquelles il apparaît que plus de la moitié, voire 60 ou 70%, des suspects répertoriés ont des noms à consonance étrangère. Cet élément est délicat à manipuler. En aucun cas l’on ne saurait déduire avec certitude une origine d’un patronyme. Il ne s’agit pas non plus de tirer des conclusions absurdes sur un caractère « culturel » de la criminalité. Mais écarter ces constatations d’un revers de manche est une grave erreur qui occulte l’échec de l’intégration.

On remarquera que la gravité de la conclusion, occulter l’échec de l’intégration, méritait pourtant qu’on s’assure de la qualité des prémisses du raisonnement.

Quelles sources pour les statistiques ethniques ou raciales dans la prémisse (a) ?

Si le fait d’établir des statistiques ethniques est en général illégal, certaines dérogations sont accordées par la CNIL. Par exemple, elle peut autoriser sous certaines conditions la collecte d’informations sur le pays d’origine des individus ou de leurs parents (on pourra aller consulter les 10 recommandations de la CNIL ). Comme le rapporte un article du Monde du 05/02/2010 :

De fait, si la loi Informatique et liberté de 1978 énonce une interdiction de principe sur le traitement statistique des données sensibles, elle permet d’y déroger, sous contrôle de la Commission nationale informatique et libertés (CNIL) et à condition de respecter certains critères (consentement individuel, anonymat, intérêt général…).

Notons toutefois qu’il n’existe pas de statistiques sur des « variables » du type Blancs, Arabes et Noirs, à une exception près, exception de taille : à mon grand étonnement je l’avoue, il existe un fichier confidentiel, nommé Fichier Canonge, qui classe les « délinquants » par « type » physique. Voici ce qu’en dit l’Express du 07/02/2006 :

A quoi ressemblent les délinquants de tous les jours? Pour le savoir, il suffit de se plonger dans un fichier méconnu, baptisé «Canonge», qui comporte l’état civil, la photo et la description physique très détaillée des personnes «signalisées» lors de leur placement en garde à vue. Grâce à cette base de données présentée à la victime, celle-ci peut espérer identifier son agresseur. Or ce logiciel, réactualisé en 2003, retient aujourd’hui 12 «types» ethniques: blanc-caucasien, méditerranéen, gitan, moyen-oriental, nord-africain-maghrébin, asiatique-eurasien, amérindien, indien, métis-mulâtre, noir, polynésien, mélanésien.

Cet outil est à manier avec prudence. D’abord, parce que, même si le Canonge est légal, la Commission nationale de l’informatique et des libertés (Cnil) interdit d’exploiter ses renseignements à d’autres fins que celle de la recherche d’un auteur présumé. Ensuite, parce qu’il ne dit rien de la nationalité et de l’origine de l’individu – qui peut être français depuis plusieurs générations malgré un physique méditerranéen, par exemple. Enfin, parce que les mentions sont portées par l’officier de police, avec la part de subjectivité que cela suppose.

Remarque : les mêmes précautions sont à prendre qu’avec les chiffres du rapport Criminalité et délinquance constatées en France (tris sélectifs de données, prédicion auto-réalisatrice, subjectivité des observateurs…)

Quelle population de référence pour établir la surreprésentation dans la prémisse (a) ?

Quand E. Zemmour prétend que la plupart des trafiquants sont Noirs ou Arabes, il énonce un résultat de surreprésentation : les Noirs ou les Arabes sont surreprésentés dans la population des trafiquants. Mais cela ne vous a pas échappé : cette notion n’a de sens que si l’on connaît la population de référence. Il est probable qu’E. Zemmour considère la population résidant en France, mais cela n’a pas vraiment de sens, puisque toutes ces personnes ne vivent pas forcément dans des conditions externes égales. Pour savoir si les Noirs ou les Arabes sont surreprésentés, il me semblerait préférable de considérer la population « susceptible d’être délinquante » (si tant est qu’on puisse donner un sens rigoureux à cette expression), c’est-à-dire celle qui vit dans les mêmes conditions que les « délinquants ».

Quelle probabilité conditionnelle dans l’implication (a)+(b) => c ?

Les prémisses (a) et (b) n’entraînent pas (c). Nous avons là un bel exemple de sophisme Non sequitur, dû à une erreur d’inversion de probabilité conditionnelle.
On retrouve le même sophisme dans les phrases suivantes, où il est plus facile à repérer

La plupart des pédophiles sont Blancs donc il faut plus contrôler les Blancs.
OU
La plupart des inculpés français dans l’affaire des frégates de Taïwan sont Blancs donc il faut plus contrôler les Blancs.
OU
Tous les incestes sont commis par un membre de la famille donc il faut contrôler tous les membres de sa famille

En fait, E. Zemmour s’emmèle les probabilités conditionnelles.

Ce n’est pas parce que la proportion de Noirs et d’Arabes est importante dans la population des trafiquants – dans ce cas on considère P(N U A/T) – que la proportion de trafiquants est importante dans la population Noire et Arabe – ici on regarde P(T/N U A). Vous en serez encore plus convaincu si vous prenez les autres versions du sophisme.

Exemple :
Imaginons une population composée de 1 000 personnes, dont :
– 400 Noirs ou Arabes
– 600 Blancs
– 7 trafiquants : 5 Noirs ou Arabes et 2 Blancs
Dans cet exemple,
P(NUA / T) = Nombre de Trafiquants Noirs ou Arabes / Nombre de Trafiquants ≈ 71,4%
P(T / NUA) = Nombre de Trafiquants Noirs ou Arabes / Nombre de Noirs ou Arabes ≈ 1,2%
Les ordres de grandeur sont radicalement différents.

Notons qu’E. Zemmour revient sur ce point dans le Parisien et le rectifie. Cependant, quand il dit « Je dis juste qu’ils sont contrôlés plus souvent parce qu’il y a plus de délinquance parmi eux« , le parce que légitime la pratique du contrôle et sous-entend qu’on a des chances d’attraper des trafiquants de cette manière et donc que la probabilité P(T/A U N) est élevée ; sa prémisse de départ est, rappelons-le, que P(A U N/T) est élevée.

Quelles conséquences des approximations contenues dans les propos d’E. Zemmour ?

Ces propos sont très essentialistes même, encore une fois, si ce n’était pas l’intention de l’auteur. La phrase « La plupart des trafiquants sont Noirs ou Arabes » est très souvent entendue comme « Ils sont délinquants parce qu’ils sont Noirs ou Arabes » (effet cigogne), ce qui n’a aucun fondement scientifique et qui exacerbe le racisme.


Mais au fait, quelle est la probabilité d’attraper un trafiquant lors d’une journée de contrôles d’identité ?

Cette partie est conçue pour pousser votre public à se méfier des statistiques, y compris quand c’est vous qui les présentez. Je vous propose pour cela de faire de mauvaises statistiques sans en avoir l’air. Si un membre du public réagit, vous avez gagné la partie. S’il n’y a pas de réactions spontanées, cela vous donnera l’occasion de pointer du doigt
1. la nécessité d’être vigilant en permanence : même averti, on n’est pas à l’abri d’une entourloupe, volontaire ou non,
2. qu’il ne faut pas croire sur parole la personne qui essaie de vous transmettre des outils critiques.

Attention : Mauvaises statistiques ! Les chiffres obtenus dans ce qui suit ne représentent absolument rien.
– Dans l’article de l’Express sur le fichier Canonge, il est dit que sur 103 000 trafiquants fichés, il y a 29% de Nord-Africains et 19% de Noirs.
En tout, cela fait 49 440 trafiquants Noirs ou Arabes.

– On peut évaluer à environ 2 988 745 personnes Noires ou Arabes en France.

– La probabilité de tomber sur un délinquant en contrôlant un Noir ou un Arabe au hasard est donc à peu près de 49 440 / 2 988 745 ≈ 1,7%.

– F. Jobard et R. Lévy rapportent p. 62 que le nombre moyen de contrôles observés par heure est de 1,25. Ce qui fait 8,75 contrôles pour 7 heures travaillées. Disons 9 contrôles par jour.

– En remarquant que la variable aléatoire « nombre de trafiquants attrapés dans la journée » suit une loi binomiale, on obtient la conclusion suivante :
la probabilité d’attraper au moins un trafiquant dans la journée en contrôlant les Noirs et les Arabes est d’environ 14,2%. Sur 100 journées de contrôles d’identité, une équipe qui pratique les contrôles d’identité revient sans trafiquant 85 fois.

Vous venez de créer une occasion pour votre public d’analyser vos propos de manière critique :
Vous êtes-vous posé la question de savoir d’où sortait le chiffre du nombre de Noirs et Arabes en France ? Ce n’est en fait qu’une estimation, très mauvaise, faite avec les moyens du bord et très critiquable.
Je suis allée sur le site de l’INSEE où figurent des données – cliquer sur Données complémentaires, sur cette page et consulter le graphique 2 – sur le nombre de personnes entre 15 et 50 ans dont au moins un des parents est immigré de Turquie, d’Afrique Subsaharienne, du Maroc, de Tunisie ou d’Algérie : il y en a 1 282 000.
Par ailleurs, sur le site de l’INED, on peut télécharger le document Immigrés selon le sexe, l’âge et le pays de naissance 2007. Dans l’onglet France détail, on peut lire qu’il y a en France en 2007, 1 706 745 immigrés issus du continent Africain et qui ont entre 18 ans et 59 ans.

Ensuite, j’ai appliqué une grande dose de racisme ordinaire : ceux qui viennent (ou dont un parent vient) d’Europe sont blancs, ceux qui viennent du Maghreb sont Arabes et ceux qui viennent d’Afrique Noire sont Noirs. Les Antillais qui sont Français sont comptés comme Blancs, les Français dont les deux parents sont Français sont comptés comme Blancs etc…

Remarquez que, sur wikipedia (version du 19/01/2011), on peut lire

En 2010, la France accueille 6,7 millions d’immigrés (nés étrangers hors du territoire) soit 11% de la population. Elle se classe au sixième rang mondial, derrière les Etats-Unis (42,8 millions), la Russie (12,3), l’Allemagne (9,1), l’Arabie Saoudite (7,3), le Canada (7,2) mais elle devance en revanche le Royaume-uni (6,5) et l’Espagne (6,4). Les enfants d’immigrés, descendants directs d’un ou de deux immigrés, représentaient, en 2008, 6,5 millions de personnes, soit 11 % de la population également. Trois millions d’entre eux avaient leurs deux parents immigrés. Les immigrés sont principalement originaires de l’Union européenne (34 %), du Maghreb (30 %), d’Asie (14 %, dont le tiers de la Turquie) et d’Afrique subsaharienne (11 %).

En reprenant les calculs avec ces chiffres – à savoir 41% de 6,7 millions + 6,5 millions-, on obtient une probabilité d’attraper au moins un trafiquant en une journée de 8% environ. Encore faudrait-il savoir à quoi correspondent ces données exactement ? Les sources de l’article de wikipedia sont :

Les immigrés constituent 11% de la population française [archive], TF1, Alexandra Guillet, le 24 novembre 2010, source : Ined

Etre né en France d’un parent immigré [archive], Insee Première, N° 1287, mars 2010, Catherine Borel et Bertrand Lhommeau, Insee

Bref, le calcul est biaisé et il m’est impossible d’évaluer la marge d’erreur commise. Ce chiffre n’a aucune légitimité et ne pourra être brandi d’aucune manière sur un quelconque plateau télé ou lors d’un quelconque dîner de famille.
Mais il permet d’énoncer une conclusion : les chiffres ne parlent pas d’eux-mêmes. Il est important de savoir comment ils ont été élaboré.

Tout savoir sur le RIC: un nouvel ouvrage fondé sur les preuves

RIC pour référendum d’initiative citoyenne. Ces trois lettres ont fait les gros titres des médias et se sont retrouvées au cœur des revendications populaires suite au mouvement des Gilets Jaunes qui a débuté le 17 novembre 2018. Un nouveau livre écrit à plusieurs mains par des membres, collaborateurs et amis du CORTECS, dévoile ce qui se cache derrière ces trois lettres.

Depuis qu’il est devenu l’une des revendications majeures du mouvement des Gilets Jaunes, le RIC a alimenté les fantasmes et les théories les plus farfelues. On a ainsi pu entendre que le RIC conduirait au rétablissement de la peine de mort ou que la culture politique des Francais ne les rendrait pas aptes à utiliser la démocratie directe à la manière de leurs voisins suisses.

Étrangement, alors que les recherches sur le fonctionnement du RIC dans le monde et sur ses impacts sur la vie politique et les citoyens sont nombreuses, anciennes et solides, elles restent très peu diffusées en France. Un nouveau livre co-écrit par Raul Magni-Berton et Clara Egger – et auquel Ismael Benslimane, Nelly Darbois, Albin Guillaud et Baptiste Pichot ont collaboré – propose une synthèse de ces travaux pour permettre à chacun de se faire un avis éclairé sur ce sujet.

Les lectrices et lecteurs y trouveront les informations centrales sur les principes et justifications du RIC, son histoire, ses variantes dans le monde, ses conséquences sur la politique d’un pays et sur ses citoyens. Les deux derniers chapitres sont consacrés de facon plus opérationnelle à l’instauration du RIC en France.

De la matière pour exercer son esprit critique sur des sujets politiques !

Concernant ce livre, vous pouvez consulter son prolongement pratique avec le site d’Espoir RIC.

Le processus bolivarien au bord du gouffre : conférence Ami·es Monde Diplomatique / CorteX / France-Amérique Latine sur le Vénézuela

Cette conférence a été organisée le 24 octobre 2017 par les Ami·es du Monde Diplomatique – campus Grenoble, avec le concours du collectif CORTECS et de l’association France-Amérique Latine. Franck Gaudichaud est maître de conférence en civilisation latino-américaine à l’Université Grenoble-Alpes. Renaud Lambert est quant à lui rédacteur en chef adjoint au Monde Diplomatique. Merci à l’équipe du service audiovisuel pour la capture, le montage et la bonne humeur.

1ère partie, par Franck Gaudicheau

2ème partie, par Renaud Lambert.

Prendre du recul avant de travailler sur les scénarios conspirationnistes

Pour répondre au désarroi que nous observions chez les enseignant.e.s et les travailleur.euses.s sociaux qui se voient confier la délicate mission de “répondre aux discours conspirationnistes”, nous avions décidé de partager nos pratiques pédagogiques, lors de formations ou sous forme d’articles (comme ici et là) : description de séances, réflexions sur notre posture ou encore présentation d’outils pour déconstruire les raisonnements conspirationnistes. Si j’ai beaucoup relayé ce matériel, j’ai néanmoins longtemps regretté de ne pas aborder plus explicitement un point qui me paraissait pourtant primordial : la non-neutralité du recours à la désignation « complot » dans les discours et les politiques anti-complotistes20. Dans un contexte où l’étiquette conspirationniste est fréquemment utilisée comme repoussoir, je ressentais le besoin de partager mes questionnements à ce sujet. J’ai donc conçu cet atelier pour amener les enseignant.e.s à expérimenter la difficulté de faire le tri entre les différentes thèses mobilisant ce concept et à s’interroger collectivement sur sa connotation. J’ai l’espoir que cette approche contribue à éviter l’écueil consistant à vouloir faire « penser bien » sur ces sujets. L’atelier présenté dans ce qui suit a été mis en place en 2018 pour des travailleur.euse.s sociaux du Grand Lyon et repris ensuite pour des enseignant.e.s.

Cadre et publics

Ces ateliers ont été conçus pour des personnes « encadrantes » dans l’objectif de construire une réflexion collective sur la définition et les contours du concept de « complot » et sur les conséquences que cela peut avoir sur notre posture d’enseignant.e. J’ai réalisé ces ateliers deux fois : la première lors de la 4ème journée (sur 6) de formation de travailleur.euse.s sociaux du Grand Lyon 21. Les participants étaient une quinzaine et nous avions déjà passé trois journées à travailler sur les bases de l’esprit critique et de l’analyse critique des médias. J’ai reproduit ces séances lors d’un stage d’une journée Esprit critique et conspirationnismes  à l’intention d’une vingtaine d’enseignant.e.s du secondaire, dans le cadre du Plan académique de formation (P.A.F). Dans les deux cas, j’ai débuté la journée avec les deux premières séquences présentées ci-dessous.

Etape 1 – Qu’est ce qu’un complot?

Dans un premier temps, j’ai projeté au tableau les neuf affirmations suivantes 22

  1. Le rôle des médias est essentiellement de relayer une propagande mensongère nécessaire à la perpétuation du « système ».
  2. On n’est même pas encore sûr que le climat se réchauffe.
  3. La CIA est impliquée dans l’assassinat du président John F. Kennedy à Dallas.
  4. Il est possible que la Terre soit plate et non pas ronde comme on nous le dit depuis l’école.
  5. Le réchauffement climatique n’existe pas, c’est une thèse avant tout défendue par des politiques et des scientifiques pour faire avancer leurs intérêts.
  6. Étant largement soumis aux pressions du pouvoir politique et de l’argent, la marge de manœuvre des médias est limitée et ils ne peuvent pas traiter comme ils le voudraient certains sujets.
  7. Le ministère de la santé est de mèche avec l’industrie pharmaceutique pour cacher au grand public la réalité sur la nocivité des vaccins.
  8. Dieu a créé l’homme et la Terre il y a moins de 10 000 ans.
  9. La révolution française de 1789 et la révolution russe de 1917 n’auraient jamais eu lieu sans l’action décisive de sociétés secrètes tirant les ficelles dans l’ombre.

Les participant.e.s, en groupe de 4 ou 5, avait pour consigne : « commencez par classer ces affirmations en deux catégories – complotiste / pas complotiste – en explicitant les critères choisis pour distinguer ces deux catégories. Notez les éventuels points de désaccord dans le groupe ou les difficultés rencontrées pour classer certaines phrases. A l’issue de ce travail, proposez une définition de complot. »

Il n’est pas évident de rendre compte ici de la richesse des échanges lors de la mise en commun, mais voici tout de même un petit échantillon des réflexions exprimées :

  • Certaines phrases sont difficiles à classer parce que tout est dans la nuance (un mot un peu fort ou une tournure de phrase caricaturale). Certain.e.s participant.e.s pourraient adhérer sur le fond mais il y a un mot « en trop » (par exemple, dans les phrases 6,7 et 9).
  •  Il serait plus pertinent de parler de continuum (différents degrés de « conspirationnisme ») plutôt que de vouloir tout classer dans deux cases.
  • Des affirmations qu’on a envie de classer comme conspirationnistes ne sont pas nécessairement « idiotes » ou complètement fausses. Même si certaines sont parfois un peu caricaturales, il y a un peu de vrai. On peut avoir de bonnes raisons d’y adhérer totalement ou en partie.
  • Il y a de « vrais complots ».
  • Certaines affirmations n’ont pas été classées par certain.e.s participants parce qu’ils ne se sentaient pas compétents sur le sujet.
  • Il y  a différents types de complots : ceux qui visent une minorité et ceux qui visent un pouvoir.
  • Il y a des affirmations fausses qui ne sont pas complotistes.

Certaines personnes ont souligné le fait que la connotation négative du mot conspirationnisme provoque un effet repoussoir et discrédite d’un revers de main le fond du discours et la personne qui le porte. Il est notamment assez désagréable d’être presque d’accord avec les affirmations 1, 6 ou 7 et de se voir taxer de conspirationnisme. Loin d’inciter à s’interroger sur sa position, cela pousse plutôt à remettre en question la légitimité d’un individu ou d’une institution qui tente de nous décrédibiliser.

Spontanément, par effet miroir, le groupe s’est interrogé sur sa propre posture : qualifier de thèse conspirationniste une affirmation faite par des élèves revient à leur signifier, avant même d’avoir travaillé sur la question, qu’elle ne vaut rien. Nombre de participant.e.s ont ainsi réalisé que leur malaise venait de là : comment assumer cette posture de l’autorité qui sait ce qui est vrai ou faux et qui doit convaincre les « mal-pensants » ? Renoncer à raisonner en terme de conspirationnisme permet de repenser sa position d’encadrant.e : comme pour toute affirmation du type « ça existe », « c’est vrai » ou « ça marche comme ça », le fond du problème reste de savoir si la thèse présentée est plutôt vraie ou plutôt fausse. Et l’encadrant.e, au lieu d’incarner la personne qui sait, peut reprendre son rôle d’accompagnateur.trice dans cette démarche et remobiliser les outils présentés lors des journées précédentes, un poids de moins sur les épaules.


Au terme de ces échanges, les définitions du complot proposées se rapprochent de celle-ci : intentions ou manoeuvres d’un groupe qui agit secrètement pour défendre ses intérêts, notamment lorsqu’ils sont contraires à ceux d’autres groupes. Avec une telle définition, il devient raisonnable d’être parfois « complotiste ».  

Etape 2 – Comment reconnaître un faux complot ?

Dans un deuxième temps, j’ai projeté deux documents vidéo l’un à la suite de l’autre :

  • La véritable identité des chats (jusqu’à la minute 4’20). Nous avions relayé la genèse de ce document ici.
  • Un épisode d’Arnaques, une émission diffusée à la télévision québécoise sur ce qui fut appelé dans les années 1990 l’affaire des couveuses ou l’affaire Nayirah. Nous n’avons malheureusement pas les droits pour le diffuser en ligne. Je pense qu’il est possible de faire le même exercice avec le document suivant, récupéré ici :

Toujours en petit groupe, la consigne était la suivante : « vous allez visionner deux vidéos différentes, l’une à la suite de l’autre. Après le visionnage, pour chacune des deux thèses présentées, positionnez-vous individuellement sur un curseur de vraisemblance de 0 à 10 indiquant votre degré de conviction pour la thèse défendue – 0 signifie que vous n’êtes pas du tout convaincu, 10 que vous l’êtes tout-à-fait. Justifiez ensuite votre positionnement auprès des membres de votre groupe : quels sont les éléments de forme ou de fond qui motivent votre position. Pointez les différences entre les deux documents (forme et fond) ».

Cette fois encore, les participant.e.s ont peiné à trouver des critères pour conclure « c’est vrai » ou « c’est faux ». Tout au mieux sont-ils parvenus à pointer des types d’arguments ou de mises en scène qui « mettent la puce à l’oreille », qui « jettent le doute ».  L’exercice était d’autant plus difficile que l’émission Arnaques, qui revient sur ladite affaire des couveuses (ou affaire Nayirah)23, reprend volontairement les codes de la scénarisation sensationnaliste.

Voici quelques points dégagés lors de la mise en commun :

  • Quand la thèse a des implications importantes pour nous, nous sommes plus enclins à débattre et à évaluer la consistance des arguments. En revanche, on a tendance à se positionner très rapidement et sans analyse lorsqu’il s’agit d’une affirmation que l’on juge sans intérêt. 
  • Notre avis a priori et nos connaissances orientent notre position à la fin du visionnage du document (on est plus critique avec les discours qui vont à l’encontre de ce qu’on pense). Certain.e.s participant.e.s avaient notamment entendu parler de l’affaire des couveuses pendant leur scolarité et ils ont eu le sentiment que cela les poussaient à y accorder du crédit, indépendamment de la qualité des arguments présentés.
  • Ce qui complique les choses pour se faire un avis, c’est le fait que les argumentaires se basent sur des faits que l’on pense étayés mais s’en éloignent parfois ou font des liens entre des événements distincts, sur lesquels le public n’a pas nécessairement assez de connaissances pour savoir si c’est pertinent ou non. 
  • On voudrait se baser sur le degré d’expertise des intervenants, mais finalement, ce n’est explicite dans aucun des documents.
  • La mise en forme influence beaucoup (musique, gros plans, phrases chocs, jeu sur l’affect, dramatisation) et provoque un effet repoussoir. Difficile de s’intéresser sérieusement au fond.
  • On voudrait pouvoir vérifier les preuves nous-mêmes ; mais on ne peut pas (manque de moyen, manque de temps).
  • Il n’y a aucun critère rédhibitoire qui nous permette de trancher.

A la fin de cette mise en commun, une différence importante s’est quand même dégagée entre les deux argumentaires, notamment le fait que le documentaire d’Arnaques cite quelques sources et se base sur des faits dont on peut vérifier l’existence. En soi, cette vidéo ne permet pas de se faire un avis solide, mais elle donne des fils à tirer pour enquêter (sources, extrait du témoignage de Nayirah dont il faudrait la version intégrale24, lien familial entre Nayirah et l’ambassadeur qu’il faudrait pouvoir vérifier…). Si l’on veut se faire un avis étayé sur la question, il faudra donc prendre le temps de l’investigation.

C’est d’ailleurs comme cela que nous avons clôturé la séance : « quelles informations supplémentaires me faudrait-il vérifier pour décaler mon curseur vers très vraisemblable« .

Ce n’est qu’à la suite de ces deux ateliers que nous avons abordé les outils développés ici.

Bilan

J’ai longuement hésité à proposer ce type d’ateliers, notamment par crainte de déstabiliser profondément les encadrant.e.s qui expriment souvent, en premier lieu, le besoin d’avoir des outils  efficaces pour élaborer une réponse convaincante et rapide aux « croyances » farfelues des élèves. Or ces temps de réflexion font déchanter rapidement : la tâche est complexe, il n’existe pas de critères rédhibitoires pour trier le vrai du faux et un travail conséquent permet au mieux de constituer un dense faisceau d’indices. Aucune solution miracle, donc.
Je me suis décidée en réalisant qu’on hésite moins à bousculer les « croyances » de publics plus jeunes. C’est d’ailleurs aujourd’hui un attendu fort de nos institutions. Il m’a semblé alors assez légitime de s’imposer à soi-même ce que l’on va demander à d’autres.
Et je dois dire que j’ai été assez surprise par les retours de certain.e.s : complexifier et nuancer le fond du discours les a plutôt rassuré.e.s.  En effet, leurs objectifs se sont considérablement modifiés au cours de la journée. Il ne s’agissait plus d’évaluer le degré de vraisemblance de toutes les affirmations faites par les élèves et de les convaincre ensuite du résultat mais d’accompagner la réflexion et l’analyse en construisant collectivement une boîte à outils à laquelle se référer. Certes, cela ne se fait pas d’un coup de baguette magique, mais nous avons déjà sous le coude un certain nombre de pistes. 

N.B. : J’avais prévu de faire travailler les groupes sur un article du Monde Diplomatique qui présente 10 principes de la mécanique conspirationniste. L’objectif était d’apprendre à repérer les procédés rhétoriques fréquemment utilisés dans certains scénarios conspirationnistes. Le programme prévu s’est avéré trop ambitieux pour le temps imparti. En lisant un retour d’expérience de Denis Caroti, il me semble qu’il serait tout-à-fait judicieux de monter un atelier puzzle pour s’approprier ces 10 ingrédients… Si vous vous lancez, racontez-nous !

Sondages d'opinion – Attention à l'intention

Vraiment, un grand merci à Fabien Tessereau, enseignant de mathématiques au collège du Mourion à Villeneuve-lez-Avignon, pour ce retour d’expérience sur un travail d’analyse critique de sondages d’opinion, mené en classe de 4ème. C’est toujours un plaisir de voir qu’on peut enseigner à repérer des biais méthodologiques importants, de manière ludique, y compris avec un public jeune. 

Sondages d’opinion : attention à l’intention !

Dans le cadre de la réforme du collège, nous avons projeté de monter en 4ème un Enseignement pratique interdisciplinaire (EPI) sur l’esprit critique avec mes collègues de français et d’histoire – géographie – EMC (enseignement moral et civique). Dans ce cadre, je me suis inscrit à un stage du Plan académique de formation (PAF) dont le thème était « Médias et esprit critique » mené par Guillemette Reviron du collectif « CORTECS ». C’est lors de ce stage qu’elle m’a donné l’idée de travailler avec les élèves sur les limites des sondages d’opinion en leur faisant construire une enquête sur la qualité de la cantine avec la consigne d’utiliser tous les biais possibles dans le recueil des données – mais sans modifier a posteriori ces données – pour que les résultats viennent confirmer une conclusion fixée préalablement. À notre connaissance, ce type de séquence pédagogique n’avait jamais été testée et le résultat n’était pas garanti. J’ai assumé la « prise de risque » et me suis lancé dans la mise en œuvre de cette idée en utilisant les différentes ressources présentées pendant le stage.

Séance 1 – Introduction

Diagrammes et graphiques

Dans mon cours sur les statistiques et la production de graphiques, j’ai intégré une première heure sur la sensibilisation au fait que les graphiques ne sont pas « neutres », même lorsqu’ils sont mathématiquement justes. L’objectif de cette première séance était de les sensibiliser au fait qu’un graphique ne donne pas seulement un résultat mathématique mais qu’il laisse aussi des impressions, et que celles-ci peuvent être orientées différemment par des représentations distinctes d’un même jeu de données. Après une introduction très courte, je leur ai présenté un extrait du journal télévisé de TF1 (20 janvier 2011) où Brice Hortefeux, alors ministre de l’intérieur, présente un diagramme sur l’évolution de la délinquance.

Ensuite, j’ai mis la vidéo en pause sur l’image du ministre présentant le graphique et j’ai demandé aux élèves de me décrire ce qu’ils voyaient. Au terme de l’échange – parfois relancé par mes questions – les élèves avaient pointé plusieurs choses sur la mise en forme : il est apparu que la couleur rouge avait été choisie pour la hausse de la délinquance et le vert pour la baisse. Les élèves ont réussi à analyser que le rouge est une couleur plutôt associée à ce qui n’est « pas bien » ou « interdit » contrairement au vert. Il a aussi été noté que les nombres en vert étaient écrits plus gros pour ressortir. Mais le principal argument mathématique n’est pas venu : aucun élève n’a remarqué l’absence d’échelle sur l’axe des ordonnées (si bien que l’on ne sait pas quels sont les nombres associés à la hauteur des rectangles), nous ne disposons donc que de pourcentages sans valeurs absolues ni ordre de grandeur. Cela pose pourtant au moins deux problèmes : 1) l’augmentation ou la diminution, qui peut paraître importante en pourcentage, peut en fait concerner un nombre très faible de délits, significatif statistiquement mais pas du tout d’un point de vue sociétal ; 2) l’impression d’augmentation ou de diminution peut être faussée si l’axe des ordonnées n’est pas gradué de manière régulière (de 5 en 5 par exemple), ce que nous ne pouvons pas vérifier ici.
Tout ce travail s’est fait à l’oral, en prenant la précaution de préciser que l’objectif n’était pas d’évaluer la pertinence du fond du propos (sur lequel il y aurait par ailleurs beaucoup à dire), mais de travailler sur sa mise en forme ; je notais simplement au tableau les différentes remarques.

J’avais prévu que les élèves ne remarqueraient pas l’absence de ces informations pourtant essentielles, et pour leur faire ressentir l’importance de préciser l’échelle sur les axes, j’ai choisi d’enchaîner avec la vidéo de Nicolas Gauvrit enregistrée pour le Cortecs.

La vidéo étant un peu longue (9 minutes), j’ai surtout fait des arrêts sur images sur les premiers diagrammes présentés (évolution de la délinquance et remboursement des médicaments) ; nous n’avons pas regardé la dernière partie trop complexe pour des élèves de 4ème. Pour chaque graphique, les élèves ont détaillé à l’oral ce qu’ils voyaient et leurs impressions. Ils se sont rendu compte de l’importance des axes, de la graduation choisie et donc de l’échelle utilisée. J’ai fait le rapprochement avec le dessin ou la peinture, quand l’artiste « représente » ce qu’il voit ou ce qu’il imagine (par exemple pour le tableau « Les Ménines » vu par Velasquez ou par Picasso). Il laisse ainsi une « impression » à ceux qui viennent voir l’œuvre. Nous avons alors repris le diagramme du journal de TF1, ils ont immédiatement remarqué qu’il manquait l’échelle et la légende sur l’axe des ordonnées. Là encore, nous avons conclu qu’il manquait des informations mathématiques, que cette omission était susceptible d’orienter notre jugement et que les couleurs choisies pouvaient avoir de l’importance. Les élèves ont très bien réagi à cette première partie en étant très actifs, même les moins à l’aise en mathématiques, les questions de description étant relativement simples et accessibles à tous.

Nous avons ensuite visionné un extrait du Petit journal de Canal+ (29 novembre 2011) qui compare les graphiques de l’évolution du chômage présentés le même jour par trois journaux télévisés différents : ceux de TF1, France 2 et France 3 sur un ton humoristique.

Nous en avons retenu que pour une même information, les trois graphiques – justes mathématiquement – ne laissaient pas la même impression.

Nous avons enchaîné sur un diaporama que j’ai réalisé à partir du travail d’Alain le Métayer sur le site du Cortecs sur les diagrammes en araignée des conseils de classe. Suivant l’ordre des matières sur la toile, les impressions données par les trois diagrammes sont différentes et pourtant les valeurs mathématiques sont exactement les mêmes. Là encore, les élèves ont très bien réagi, le but étant qu’ils se posent des questions et qu’ils doutent, sans tomber dans l’excès « Tout le monde nous ment ! ». J’ai bien insisté à chaque fois sur le fait de lire attentivement les éléments mathématiques et de faire attention aux impressions éventuellement données.

Tri sélectif des données et enquêtes d’opinion : les écueils du micro-trottoir

Nous avons ensuite réfléchi à la notion d’esprit critique dans le journalisme en visionnant un dernier extrait vidéo du Petit journal de Canal + (13 juin 2013).

On voit dans cette vidéo un micro-trottoir réalisé dans une gare parisienne un jour de grève des agents de la SNCF. Dans une première partie, les clients interrogés semblent particulièrement mécontents. Dans une deuxième partie, on voit les mêmes personnes bien plus nuancées voire même compréhensives envers les agents grévistes. Cela met en avant le fait que l’on peut fabriquer un point de vue en n’utilisant qu’une partie des réponses des personnes interrogées (c’est une illustration du tri sélectif des données). Les élèves ont été aussi bien surpris que choqués et ont vraiment pris conscience qu’un micro-trottoir, fruit d’une sélection de témoignages, peut être orienté dans un sens ou dans un autre. Toujours à l’oral, nous avons essayé de trouver un intérêt à ce reportage ; nous en sommes arrivés à questionner la pertinence du lieu utilisé pour réaliser le micro-trottoir. Nous sommes parvenus à la conclusion qu’en effet, à la gare un jour de grève, il y avait de grandes chances que les personnes présentes soient essentiellement celles qui n’étaient pas au courant de la grève, ou alors celles qui n’avaient pu faire autrement pour se déplacer, donc des gens probablement mécontents dans tous les cas (deuxième tri sélectif des données). J’ai saisi cette occasion pour parler d’échantillon représentatif.

Présentation du projet

Après ces réflexions, je leur ai présenté le projet : la classe serait divisée en deux groupes pour concevoir une enquête de satisfaction sur la cantine au sein du collège. Un groupe serait chargé de « s’arranger » pour que le recueil de données conduise à conclure que les élèves du collège apprécient la cantine, tandis que l’autre devrait « s’arranger » pour conclure l’inverse en jouant uniquement sur le mode de recueil des données mais en les traitant avec rigueur. La plupart des élèves se sont montrés immédiatement très motivés et investis. La classe a été répartie en deux groupes et chaque groupe a commencé à réfléchir chez soi, pour préparer la deuxième séance, à sa stratégie.

Séance 2 – Préparation de l’enquête

Pendant cette deuxième heure, un groupe est resté avec moi et l’autre groupe est allé réfléchir avec un collègue. Le but pour chaque groupe était de trouver les moyens d’arriver à sa fin. Nous avons réuni les deux groupes pour une mise en commun pour les dix dernières minutes. Il a été très intéressant de constater que les deux groupes ont choisi la même question : « qu’as-tu pensé du repas de la cantine aujourd’hui ? » (De son côté, le professeur de français travaillait avec les élèves sur les différentes façons de poser une même question mais pouvant aboutir à des réponses différentes pour une même personne interrogée).
Chaque groupe a décidé de proposer des réponses au choix (nous avions déjà vu dans un exercice qu’il pouvait être difficile pour le dépouillement de laisser les gens répondre ce qu’ils voulaient). Le groupe ayant pour mission d’obtenir une réponse positive a opté pour trois réponses au choix : 1 – Très Satisfaisant ; 2 – Plutôt  satisfaisant ; 3 – Pas du tout satisfaisant. L’autre groupe a choisi quatre réponse au choix : 1 – Excellent ; 2 – Satisfaisant ; 3 – Plutôt pas satisfaisant ; 4 – Pas du tout satisfaisant.
Pour le groupe dont j’ai eu la charge, je les ai laissé réfléchir entre eux sans intervenir pendant 10 minutes puis j’ai lancé quelques questions afin d’arriver à ce résultat. Comme leur but était de récupérer dans sa partie les personnes répondant plutôt au milieu (dans le plus ou le moins suivant le cas), la question s’est alors posée de savoir : qui interroger, où, et comment choisir les personnes interrogées ? Très rapidement la question du menu est arrivée – est-il prévu des épinards ou des frites ? Ensuite un élève a proposé d’interroger les élèves à la sortie du self à côté du tapis roulant où l’on dépose les plateaux : on ciblerait, suivant le groupe, les élèves dont le plateau déposé serait vide ou plein. Pour des questions d’organisation, je leur ai dit qu’ils ne pouvaient pas être plus de trois par jour à questionner leurs camarades. Enfin, le collège comptant 800 élèves, il a été décidé que chaque élève devait en interroger au moins 8 pour avoir environ 100 résultats pour chacune des deux versions de l’enquête. Afin d’être sûr de toucher un peu tous les élèves du collège, une deuxième question sur le niveau de l’élève a été ajoutée.

Séance 3 – Enquête et dépouillement

L’heure suivante, j’avais préparé dix questionnaires pour chacun (tous sur une même page pour des questions pratiques) et apporté les menus du mois suivant. Les élèves se sont alors répartis par groupe de 2 ou 3 sur les jours où ils allaient poser les questions en fonction des plats (la désignation des « bons » et des « mauvais » menus s’est faite sur des bases entièrement subjectives). Le recueil des données a duré un mois. Six élèves n’ont pas fait passer l’enquête par oubli ou par manque d’envie ou encore par timidité. À l’issue de cette collecte, trois élèves de chaque groupe ont dépouillé les réponses obtenues. Les tableaux avec les résultats ont été distribués à chacun (en fonction de son groupe de départ) et chaque élève a pu réaliser, grâce à l’assistant graphique du tableur, un diagramme circulaire avec les résultats obtenus. Et quels résultats ! Chaque groupe a en effet parfaitement réussi à obtenir les résultats attendus dès le départ. Un élève a aussi proposé de mettre en vert les réponses « positives » et en rouge les réponses « négatives » afin de voir le contraste entre les deux diagrammes. Nous avions donc une enquête sur la cantine rigoureuse sur le plan mathématique mais qui donnait deux résultats complètement différents.

Cortecs_Fabien Tessereau_Sondage_cantine_Non
Cortecs_Fabien Tessereau_Sondage_cantine_Oui
Cortecs_Fabien Tessereau_Sondage_cantine_donnees

 

Bilan

De façon générale sur l’ensemble du projet, les élèves ont été très motivés pour participer et le fait de pouvoir « manipuler » des résultats leur a beaucoup plu. Nous avons bien sûr aussi parlé du fait qu’ils pouvaient du coup, eux aussi être manipulés, malgré l’utilisation des mathématiques. Il nous a manqué du temps en fin d’année pour réaliser un panneau d’affichage avec les deux représentations graphiques sur la même page, mais c’est en projet pour cette année : même si les élèves sont en 3°. Cet esprit critique sur les statistiques me paraissant important, j’ai maintenant intégré à mon chapitre sur les statistiques la première heure de cours de ce projet (avec les vidéos) avec une trace écrite en plus.

Fabien Tessereau