Chapter Content

Calculating...

Alors, euh, voilà, on va parler d'un truc... un peu bizarre, hein ? On va parler de pourquoi la science des fusées, vous voyez, la rocket science, c'est... c'est plus facile que de comprendre la société humaine. Oui, oui, vous avez bien entendu.

Imaginez, quoi, vous êtes roi ou reine, tranquille dans votre palais. Vous invitez des... comment on dit ? ...des devins, des oracles, pour qu'ils vous donnent leur sagesse, quoi. Et là, deux oracles se présentent. Les deux, ils disent qu'ils sont spécialistes du futur. Le premier, il dit qu'il peut prédire avec précision une tendance qui va se produire dans six mois. Et l'autre, le deuxième, il s'agenouille devant vous, super confiant, et il vous dit qu'il peut prédire, avec certitude, un événement qui aura lieu le samedi 26 avril de l'an 3000. À qui vous faites le plus confiance, vous ?

L'instinct, c'est de choisir le plus court terme, non ? Parce que, bon, il peut se passer tellement de choses en 975 ans. Mais en fait, ça dépend de ce qu'ils prédisent, de quelle source d'incertitude chaque oracle essaie de maîtriser. Ça devient plus clair si je vous dis, tenez-vous bien, que la première prédiction, c'est que la croissance économique américaine sera supérieure à 3 % dans six mois. Et la deuxième, c'est qu'il y aura une éclipse totale le samedi 26 avril 3000. Moi, je parierais bien sur l'éclipse, hein. Mais pas sur le taux de croissance, ça c'est sûr.

On dit souvent "C'est pas de la science des fusées", vous voyez, pour dire que c'est pas compliqué. Mais, et là, je vais essayer de vous convaincre, et je sais, ça a l'air complètement fou dit comme ça, mais en fait, ça aurait plus de sens de dire "C'est pas de la science sociale" pour parler d'un problème super difficile. Il y a des génies qui bossent sur les deux types de problèmes, hein. Mais les spécialistes des fusées, ils vous diront que prédire le comportement globalement stable des planètes et des lunes, c'est... c'est du gâteau, quoi. Comparé à faire des prédictions correctes à long terme dans les systèmes complexes de 8 milliards d'humains interconnectés.

Et pourtant, une grande partie de notre monde est façonnée par notre compréhension imparfaite du fonctionnement de l'humanité. On alloue des budgets, on fixe des taux d'imposition en se basant sur des prévisions économiques qui sont rarement exactes au-delà de courtes périodes. On entre en guerre, ou pas, en se basant sur des évaluations subjectives des risques qui, après coup, se révèlent désastreusement fausses. Les entreprises, parfois, elles investissent des milliards en se basant sur des prédictions spéculatives de tendances.

Jusqu'à présent, on a vu que le monde fonctionne différemment de la façon dont on l'imagine, hein. Et cette fausse image de la réalité, elle persiste parce qu'elle nous est renvoyée, en fait, par des recherches sociales imparfaites. La plupart de nos oracles modernes en économie, en sciences politiques, en sociologie, ils... ils consolident notre version romancée de la réalité, quoi. Les mythes bien rangés qui éliminent les heureux hasards importants de la vie comme de simples "bruits". Une grande partie de notre compréhension de nous-mêmes part du postulat incorrect que les schémas réguliers et linéaires de cause à effet sont stables dans le temps et dans l'espace. Notre recherche de compréhension, c'est une recherche du type "Est-ce que X cause Y ? ", ce qui minimise systématiquement le rôle du hasard et de la complexité. Mais si la version romancée de la réalité utilisée dans la plupart des recherches est trompeuse, alors comment on peut présenter la réalité d'une manière qui capture les accidents contingents et qui les prend au sérieux comme des moteurs de changement ?

"Tous les modèles sont faux, mais certains sont utiles", disait le statisticien George Box. Trop souvent, on a oublié cette leçon, on a confondu la carte et le territoire, en imaginant à tort que nos représentations simplistes du monde le décrivent avec précision. Combien de fois vous avez lu une version de "une nouvelle prévision dit que" ou "une étude récente a découvert que" et vous l'avez accepté tel quel, sans examiner les hypothèses ou la méthodologie sous-jacentes ? La recherche sociale, c'est notre meilleur outil pour naviguer dans un monde incertain. C'est souvent extrêmement utile. Mais si on veut éviter des erreurs coûteuses, parfois même catastrophiques, il faut qu'on reconnaisse plus précisément ce qu'on peut, et ce qu'on ne peut pas, comprendre de nous-mêmes lorsqu'on navigue dans un monde complexe influencé par le hasard, l'arbitraire et l'accident. Il est temps d'être honnête sur le peu de choses qu'on sait avec certitude. Faut qu'on fasse un petit plongeon dans le monde de la recherche sociale et qu'on regarde comment la saucisse est fabriquée, quoi.

On peut décomposer ce problème en deux parties. Ce que j'appelle le "Problème Facile de la Recherche Sociale" et le "Problème Difficile de la Recherche Sociale". Le problème facile, il vient de méthodes imparfaites. On peut, et on doit, le vaincre. C'est réparable. Par contre, le problème difficile, il est probablement insoluble, parce qu'il ne vient pas d'une erreur humaine ou d'une mauvaise méthodologie, mais parce que certaines formes d'incertitude liées au comportement humain sont absolues et insolubles.

Alors, on va regarder ce qui est facile, et ce qui est dur.

Il y a une dizaine d'années, un psychologue social connu, Daryl Bem, il a décidé de tester si la précognition, ou perception extrasensorielle (PES), c'était réel, quoi. Bem, c'était pas un illuminé, hein. Il avait étudié la physique au MIT, il avait obtenu son doctorat à l'université du Michigan, et il avait enseigné à Harvard, Stanford et Cornell. En utilisant une méthodologie de recherche standard, Bem, il a mené une série d'expériences. Dans une expérience, les participants, on leur montrait deux rideaux sur un écran, et ils devaient deviner derrière quel rideau se cachait une image érotique. Et là, tenez-vous bien, les participants, ils ont deviné correctement plus souvent que ce que le hasard aurait prédit. Et encore plus étonnant, leur pouvoir de prédiction, il disparaissait si les photos derrière les rideaux étaient pas érotiques. Ces résultats, ils ont été vérifiés en utilisant des mesures standard de signification statistique.

Bem, il avait pas d'explication convaincante à cette capacité apparemment surnaturelle, hein, ni de théorie plausible sur pourquoi les participants, ils étaient miraculeusement meilleurs pour anticiper les images sexy que les images non sexy. Mais quand Bem, il a fait ses calculs, il a confirmé sa suspicion : certaines personnes pouvaient, comme le suggérait le titre de son article, "sentir l'avenir". Les résultats de la recherche de Bem en 2011, ils ont suivi le processus standard d'évaluation par les pairs et ils ont été publiés dans l'une des meilleures revues du domaine, le "Journal of Personality and Social Psychology". Ça a fait sensation. La presse, elle a adoré ça. Bem, il a fait le tour des plateaux télé, quoi.

Mais tout le monde était pas convaincu, hein. Les chercheurs Stuart Ritchie, Richard Wiseman et Christopher French, ils ont essayé de reproduire les résultats de manière indépendante. Quand ils ont mené les mêmes expériences, personne dans leurs études pouvait "sentir l'avenir". Là, il y avait une preuve irréfutable que les conclusions de Bem, elles étaient pas aussi réelles qu'il le suggérait. Mais quand le trio a essayé de publier sa contestation de Bem, ils ont pas trouvé grand monde pour les publier. On leur disait qu'ils piétinaient de vieux territoires. Pourquoi répéter quelque chose qui avait déjà été étudié, quoi ? Finalement, leur article, il a été envoyé pour évaluation par les pairs, le processus par lequel la recherche est anonymement évaluée par d'autres universitaires. Le premier évaluateur, il a encensé leur travail. Le deuxième évaluateur, il a rejeté l'article, tuant ses chances de publication. Vous voulez savoir le nom du deuxième évaluateur ? Daryl Bem.

Finalement, la nouvelle étude, celle qui contestait la "découverte" de Bem, elle a été publiée. Elle a contribué à une remise en question attendue depuis longtemps dans la recherche sociale, et en particulier en psychologie sociale, connue sous le nom de "crise de la réplication". Quand les chercheurs, ils ont essayé de répéter des études et des expériences précédentes, y compris des conclusions qui étaient largement acceptées comme une sagesse conventionnelle, ils ont obtenu des résultats différents. Dans une étude de 2015, des chercheurs ont tenté de reproduire les conclusions de cent expériences influentes publiées dans des revues de psychologie reconnues. Seulement trente-six ont passé le test. Des affirmations audacieuses ont été invalidées. Beaucoup de choses qu'on pensait savoir se sont révélées fausses. Ce tremblement de terre méthodologique, il a ébranlé notre foi dans les vérités acceptées. Il a aussi soulevé une question angoissante : sur quoi d'autre on se trompait ?

Pour prouver à quel point le système de compréhension de nous-mêmes était devenu défaillant, certains chercheurs, ils ont essayé de faire publier des affirmations manifestement fausses. Dans un cas, des chercheurs, ils ont réussi à produire des résultats apparemment statistiquement valables prouvant que l'écoute de la chanson des Beatles "When I'm Sixty-Four" amenait les gens à devenir plus jeunes. Pas à se sentir plus jeunes. À devenir plus jeunes. Une autre étude, elle a montré que les femmes, elles étaient plus susceptibles de voter pour Barack Obama en 2008 si elles ovulaient au moment de voter. Ces "conclusions", elles suivaient les méthodologies acceptées et elles ont passé les seuils statistiques standard pour la publication. Qu'est-ce qui se passait ?

Les chercheurs en sciences sociales, malheureusement, ils sont parfois coupables d'utiliser de mauvaises méthodes de recherche, ou même de manipuler délibérément le système. Ça peut paraître un peu technique, les préoccupations ésotériques de quelqu'un, comme moi, qui est professionnellement employé comme scientifique social. Mais on a tous intérêt à comprendre comment la recherche sociale, elle est produite, avec ses défauts, parce que c'est souvent l'information que nos sociétés, et nos dirigeants, utilisent pour prendre des décisions. Exposer le linge sale de la recherche sociale, c'est utile pour corriger notre version romancée incorrecte de la réalité, le monde imaginaire dans lequel X cause toujours Y et où les hasards n'ont pas d'importance. Mais comprendre ces défauts, ça vous donnera aussi les outils intellectuels pour évaluer de nouvelles "conclusions" avec une bonne dose de scepticisme.

Bon, je dois maintenant, je le crains, nous emmener brièvement dans le détail, hein. Soyez patients, c'est important de comprendre pourquoi on se trompe si souvent. La plupart des études menées en sciences politiques, en économie, en sociologie, en psychologie, etc., elles produisent une mesure quantitative appelée "valeur P". Je vais passer sur beaucoup de détails mathématiques ici, mais c'est la mesure que les chercheurs en sciences sociales, ils utilisent comme raccourci pour déterminer si une conclusion pourrait être "réelle", ou si c'est peut-être une étude qui ne découvre rien, produisant un "résultat nul". Quand la valeur P est suffisamment basse, les chercheurs, ils ont tendance à interpréter ça comme une preuve que la conclusion est susceptible d'être réelle, ou, comme on dit formellement, statistiquement significative. La communauté scientifique, elle a largement convenu que le seuil de publication, c'est une valeur P inférieure à 0,05. En pratique, ça veut souvent dire qu'une étude avec une valeur P de 0,051, juste au-dessus du seuil, elle sera pas publiée, alors que la même étude avec une valeur P de 0,049, juste en dessous du seuil, elle le sera probablement. Donc, si ce chiffre redouté de 0,051 apparaît, les chercheurs, ils peuvent sauver leur chance d'être publiés s'ils peuvent manipuler de manière créative cette valeur P pour la faire descendre à 0,05 ou 0,049. Après tout, les données, on peut les découper et les arranger de plein de manières justifiables. Les chercheurs, ils peuvent raisonnablement choisir l'option qui donne la valeur P la plus basse. Ronald Coase, un prix Nobel d'économie, il disait ça comme ça : "Si vous torturez les données assez longtemps, elles finiront par avouer".

Ce système de seuil, il introduit une terrible incitation dans la production de la recherche, parce que la publication, elle est liée aux promotions, aux futures subventions et à l'avancement de carrière. Quand les chercheurs, ils modifient leur analyse des données pour produire une valeur P qui est assez basse pour qu'un article soit publié, on appelle ça le "P-hacking", et c'est un fléau de la recherche moderne, qui fait qu'on comprend mal notre monde. Mais quelle est l'ampleur de ce phénomène ?

Dans une analyse d'articles publiés dans des revues reconnues, des chercheurs, ils ont trouvé un pic énorme du nombre d'articles qui avaient des valeurs P juste en dessous du seuil de publication. C'est une preuve solide que la recherche publiée, elle est biaisée par ce système. La crise de la réplication, partiellement déclenchée par les études discréditées de Bem sur la PES, elle a révélé le P-hacking au grand jour. Malheureusement, ça a pas fait grand-chose pour l'arrêter. Quand des économistes, ils ont examiné des données dans vingt-cinq revues d'économie reconnues de nombreuses années après la crise de la réplication, ils ont constaté que jusqu'à un quart des résultats utilisant certains types de méthodes de recherche montraient des interprétations trompeuses des données et des preuves potentielles de P-hacking. C'est une grande proportion de la recherche qui affecte notre façon de voir le monde, et notre place à l'intérieur. Ces études bidon, qui tracent souvent des causes et des effets simples, renforcent à tort l'idée qu'on peut supprimer les hasards de la société, parce que la réalité, quand elle est déformée par le P-hacking, elle apparaît plus ordonnée et plus rangée. X cause Y d'une manière simple, et on a la faible valeur P pour le prouver !

Une mauvaise recherche, elle voit parfois le jour aussi à cause d'un problème connu sous le nom de "problème du tiroir". Pensez-y comme ça : si je vous demande de lancer une pièce de monnaie dix fois, il y a environ 5 % de chances que vous obteniez au moins huit "face". Si vous lancez une pièce de monnaie dix fois de suite à vingt reprises, il est raisonnablement probable que vous obteniez au moins huit "face" lors de l'une de ces vingt occasions. Maintenant, imaginez que vous décidez de répéter les dix séries de lancers de pièce encore et encore jusqu'à ce que vous obteniez huit "face". Quand vous y arrivez enfin, vous vous précipitez pour raconter à un ami (facilement impressionnable) votre résultat étonnant : "J'ai lancé une pièce de monnaie dix fois et j'ai obtenu huit "face" ! Quel résultat rare et intéressant !". Pour renforcer l'admiration de votre ami, vous oubliez de mentionner combien de fois vous avez essayé, et échoué, avant cette tentative.

Maintenant, imaginez la même logique, mais avec des chercheurs qui essaient d'établir la légitimité de la PES ou de la précognition. Dix-neuf chercheurs mènent des expériences et ne trouvent rien. Pas de résultat, pas de publication. Ils prennent tranquillement leurs résultats et les mettent dans un tiroir, pour qu'ils ne soient plus jamais vus. Puis, purement par hasard, le vingtième chercheur "découvre" quelque chose d'étonnant qui dépasse les repères statistiques habituellement utilisés dans le domaine. Excité, il se précipite pour publier, et comme ça passe les tests statistiques, ça passe l'évaluation par les pairs et c'est publié, avec un grand retentissement. Les dix-neuf expériences ratées, elles sont invisibles, parce qu'elles n'apparaissent jamais en dehors du tiroir. La seule expérience "réussie", elle est visible, et elle convainc les gens qu'un effet est réel. C'est ça, le problème du tiroir.

Si vous saviez que dix-neuf chercheurs sur vingt n'avaient trouvé aucun résultat, vous remettriez en question la "découverte". Mais ces dix-neuf études, elles sont pas publiées, elles prennent la poussière dans des tiroirs, donc vous ignorez leur existence. Non seulement le problème du tiroir produit une forme pernicieuse de biais de publication qui fausse notre compréhension de la réalité en la faisant paraître plus ordonnée qu'elle ne l'est, mais il crée aussi de fortes incitations pour les chercheurs à se concentrer sur la recherche qui produit des résultats "positifs", des conclusions originales et intrigantes, plutôt que sur les tâches moins gratifiantes, mais tout aussi importantes, de montrer l'absence de relation entre une cause et un effet, ou de réfuter une mauvaise recherche. Certains chercheurs qui ont fait des déclarations audacieuses qui ont ensuite été réfutées sont encore célèbres. Peu ont entendu parler de ceux qui les réfutent.

Malheureusement, une mauvaise recherche est aussi influente qu'une bonne recherche. Une étude de 2020 a constaté que la recherche qui n'a pas réussi à être reproduite, et qui est donc susceptible d'être fausse, elle est citée au même rythme que la recherche qui a été vérifiée de manière indépendante par une étude répétée. Ces défauts de recherche, ils sont souvent flagrants. Une étude a demandé à des experts de lire des articles et de parier sur les recherches qui seraient confirmées ou non par des tests de réplication. Dans l'ensemble, leurs paris ont été gagnants. Ils pouvaient repérer ce qui était trop beau pour être vrai à des kilomètres. La DARPA, l'agence américaine secrète de recherche pour la défense, a même consacré des ressources à ce que certains ont appelé un "détecteur de conneries" pour la recherche sociale, avec un certain succès. Mais malgré le fait qu'elle soit raisonnablement facile à repérer, beaucoup de mauvaises recherches sont encore produites. Et l'évaluation par les pairs, le mécanisme qui consiste à faire examiner le travail des uns par les autres pour déterminer ce qui mérite d'être publié, c'est un système qui est lui-même défaillant. Dans une étude, des chercheurs ont délibérément introduit des défauts graves dans des articles de recherche, juste pour voir combien seraient repérés par les évaluateurs. Vous devinez combien ? Un sur quatre.

Ces problèmes se superposent à d'autres qui sont plus directement liés à notre version romancée de la réalité. Par exemple, un énorme corpus de recherches continue d'imaginer qu'on vit dans un monde linéaire dans lequel la taille d'une cause est proportionnelle à la taille de son effet. Le monde est cartographié comme si tout tenait sur une ligne droite. Comme on l'a vu, encore et encore, c'est clairement la mauvaise façon de comprendre notre monde. Pourtant, de nombreux modèles quantitatifs largement utilisés imaginent toujours que ce monde existe. Pourquoi ? Parce que les sciences sociales quantitatives ont surtout émergé dans les années 1980 et 1990, quand la puissance de calcul était chère et moins sophistiquée. Mais à cause d'un enfermement arbitraire, cette façon de voir le monde, elle est restée, et elle continue de dominer la plupart des domaines de la recherche sociale, même si on est maintenant capable de modélisations beaucoup plus sophistiquées.

La science de la complexité, et ceux qui utilisent la logique plus sophistiquée des systèmes adaptatifs complexes pour comprendre notre monde, malheureusement, ça représente une infime partie de la production de la recherche moderne. On fait juste semblant que le monde est d'une certaine manière, alors qu'on sait qu'il est d'une autre, et ça nous amène à faire des erreurs graves et évitables dans la façon dont on dirige la société.

Bon, certains lecteurs négligents pourraient prendre ces critiques comme une directive pour jeter le bébé avec l'eau du bain, en concluant à tort que la recherche sociale est inutile, dénuée de sens, irrémédiablement défectueuse. C'est pas le cas, hein. On navigue dans notre monde beaucoup mieux qu'on le faisait dans le passé grâce à des avancées importantes dans les domaines de la recherche qui étudient notre propre espèce. On met en garde les étudiants diplômés en sciences sociales contre les dangers du P-hacking, et certaines revues font des efforts judicieux pour s'attaquer au problème du tiroir. La transparence, elle a considérablement augmenté. C'est pas parce que les économistes ou les politologues se trompent de temps en temps qu'il faut abandonner l'économie et la science politique. Au contraire, on devrait travailler dur pour résoudre le problème facile de la recherche sociale. Et on peut le résoudre.

Mais ce qui ne peut pas être résolu, je le crains, c'est le problème difficile.

C'est là que tout devient assez déroutant, et que ça devient clair que le "bruit" apparemment aléatoire, il compte beaucoup plus qu'on le prétend. Il y a quelques années, des scientifiques sociaux d'Allemagne et du Royaume-Uni, ils ont décidé d'essayer quelque chose de nouveau. Ils allaient faire appel à la foule pour essayer de répondre à une question de longue date qui divisait à la fois les chercheurs et le public : quand de plus en plus d'immigrants arrivent dans un pays, est-ce que les électeurs deviennent moins favorables au filet de sécurité sociale ? Est-ce qu'un afflux d'immigrants crée une réaction négative contre les programmes de dépenses sociales, comme les allocations de chômage, de la part des électeurs qui les considèrent comme des "cadeaux" illégitimes ? Cette question, elle est clairement importante, mais les preuves, jusqu'à présent, elles ont été mitigées. Certaines études ont dit oui, d'autres ont dit non. Qu'est-ce qui se passerait, se sont demandé les chercheurs, s'ils donnaient à un tas de chercheurs les mêmes données exactes et qu'ils leur posaient la même question ? Est-ce qu'ils obtiendraient les mêmes réponses ?

Soixante-seize équipes de recherche ont participé. Il n'y avait aucune communication entre elles, pour qu'elles ne puissent pas comparer leurs notes ou succomber à la pensée de groupe. Au lieu de ça, elles ont chacune adopté leur propre approche pour déchiffrer les schémas cachés dans les chiffres. Quand l'étude a pris fin, les soixante-seize équipes, elles avaient produit 1253 modèles mathématiques pour estimer l'effet de l'immigration sur le soutien aux programmes de protection sociale. Aucun des modèles était le même. Chaque équipe de recherche a adopté une approche légèrement différente.

Ce qu'elles ont trouvé, c'était extraordinaire : un résultat complètement mitigé. Un peu plus de la moitié des chercheurs n'ont trouvé aucun lien clair entre les niveaux d'immigration et le soutien du public au filet de sécurité sociale. Mais les équipes restantes, elles étaient divisées, presque à parts égales, certaines constatant que l'immigration érodait le soutien au filet de sécurité sociale, tandis que d'autres constataient exactement le contraire. Environ un quart des modèles disaient oui, environ un quart disaient non, et la moitié disaient "rien à voir ici".

En essayant de comprendre ce qui s'était passé, les chercheurs, ils ont examiné attentivement les décisions méthodologiques de chaque équipe. Mais les choix méthodologiques, ils ne pouvaient expliquer qu'environ 5 % de la variation des résultats. Les 95 % restants, c'était de la matière noire inexplicable. Personne ne pouvait l'expliquer. Les chercheurs, ils ont tiré une conclusion qui correspond à l'esprit de ce livre : "Même les décisions [méthodologiques] les plus apparemment insignifiantes pouvaient entraîner des résultats dans des directions différentes ; et seule la conscience de ces détails infimes pouvait conduire à des discussions théoriques productives ou à des tests empiriques de leur légitimité". Les plus petites décisions faisaient une grande différence. Ça crée des défis inévitables qu'on ne peut pas éliminer d'un coup de baguette magique ou résoudre avec de meilleures maths. Une partie du problème difficile, c'est qu'on vit dans, comme le suggérait le titre de cet article, un "univers d'incertitude".

La plupart du temps, on n'affecte pas soixante-seize équipes de recherche pour répondre à une question précise. C'est presque toujours un seul chercheur, ou un petit groupe d'entre eux, qui travaille pour aborder une question sur notre monde. Imaginez ce qui se serait passé si cette question avait été posée à un seul chercheur ou une seule équipe de recherche et qu'ils y avaient répondu. Une étude faisant autorité aurait pu être publiée montrant que l'immigration diminue le soutien aux dépenses sociales, ou une étude montrant que l'immigration augmente le soutien aux dépenses sociales. (Cette expérience montre que chaque conclusion serait à peu près aussi probable.) Cette étude isolée aurait pu générer une couverture médiatique et modifier l'opinion publique sur l'immigration. Mais c'est un coup de dés de savoir si l'étude dirait que l'immigration est bénéfique ou néfaste au soutien du public aux dépenses sociales.

Maintenant, imaginez si la recherche était ouverte et que chaque équipe pouvait choisir les données qu'elle préférait plutôt que d'utiliser les mêmes données pour répondre à la question. Tous les paris seraient ouverts. Mais c'est comme ça que la recherche fonctionne normalement. C'est une autre partie du problème difficile : on n'arrive pas à se mettre d'accord sur ce qui se passe, même quand on travaille sur la même question exacte avec les mêmes données exactes.

Malheureusement, c'est pas là que s'arrête le problème difficile. Et si le monde qu'on essaie de comprendre, comme nous le rappelait Héraclite, était en constante évolution ? Prenez l'étude des dictatures, par exemple. Dans les années 1990 et 2000, des politologues, ils ont développé un concept appelé "durabilité autoritaire" pour décrire les dictatures. L'idée, elle était simple. Certains types de dictatures survivent longtemps, quoi qu'il arrive. La théorie, elle avait du sens. Les données la soutenaient. Il y avait même des symboles de cette théorie, en particulier au Moyen-Orient, des tyrans terribles comme Mouammar Kadhafi en Libye, Ben Ali en Tunisie et Hosni Moubarak en Égypte. Des livres ont été écrits sur les raisons pour lesquelles leurs régimes étaient si inébranlables. Des carrières ont été construites grâce à ces livres. Le concept, il est devenu une sagesse acceptée. Les dictateurs sont peut-être impitoyables, mais bon sang, ils produisent de la stabilité.

Puis, fin 2010, un vendeur de légumes en Tunisie s'est immolé par le feu. Bientôt, la théorie, elle a été apparemment anéantie. Les symboles ont été renversés, leurs palais ont été pillés par des foules en colère à l'avant-garde des révolutions. En quelques mois, Ben Ali a fui en exil, Moubarak a été arrêté et Kadhafi a été tué. La durabilité autoritaire avait apparemment eu tort. Ses principaux partisans ont vu leur étoile pâlir et ont semblé s'être profondément trompés dans leur diagnostic des affaires mondiales. Mais ça avait pris tout le monde par surprise, pas seulement ceux qui étaient dans des tours d'ivoire. Quand je travaillais sur mon doctorat, peu avant de partir mener des recherches sur le terrain en Tunisie, je me souviens d'avoir été assise dans le bureau d'une professeure et d'avoir regardé une affiche qu'elle avait accrochée au mur pour prouver ce point. C'était une "carte des risques politiques" du Moyen-Orient de 2010, créée par des personnes qui étaient professionnellement employées pour gérer les risques et l'incertitude. Les pays sûrs et stables étaient colorés en vert. Quand j'ai regardé la carte début 2011, j'ai remarqué que chaque zone verte sur la carte était en feu, en pleine révolution ou guerre.

Voici la question cruciale, à laquelle il est impossible de répondre : Est-ce que la théorie originale était fausse, ou est-ce que le monde a changé ?

Il est possible que Kadhafi et Moubarak aient toujours été fragiles, et qu'on les ait juste mal compris et surestimés. Mais il y a une autre explication : peut-être que le Printemps arabe a changé la façon dont les dictatures du Moyen-Orient fonctionnent. Ce qui était autrefois résilient est devenu fragile. On accepte ces changements dans le monde physique, de la même manière que l'eau frappée par un marteau absorbe un coup et reprend en grande partie son état antérieur. Mais si vous la congelez, les dommages causés par un coup de marteau deviennent visibles et durables, gravés dans la glace. L'eau a changé, donc la théorie de ses propriétés doit changer aussi. Peut-être que la théorie des dictatures du Moyen-Orient était juste, au moins de la Guerre froide jusqu'à environ 2010, et qu'ensuite le monde est devenu fondamentalement différent. Qui sait ? C'est impossible d'en être sûr. Les théories ne viennent pas avec une date d'expiration.

Cependant, quand on conclut que les théories sociales se sont trompées, beaucoup supposent que la théorie était fausse depuis le début. C'est une erreur. Les théories sociales ne sont pas les mêmes que celles de la chimie. Si les hommes des cavernes pouvaient mélanger du bicarbonate de soude et du vinaigre, ils obtiendraient la même effervescence qu'on obtient nous. Une telle stabilité durable à travers le temps, l'espace et la culture n'existe pas avec la dynamique sociale. Au lieu de ça, un schéma de causes et d'effets peut exister dans un contexte pendant un certain temps, jusqu'à ce que le monde social change et que le schéma cesse d'exister. Dans la société humaine, certaines formes de causalité se transforment. Pourtant, on imagine qu'il y a une vérité fixe sur nous-mêmes qu'on est sur le point de découvrir, tout en ne reconnaissant pas que la vérité réelle de nos systèmes sociaux se transforme, change, échappe à notre compréhension.

Tout devient encore plus déroutant quand on considère qu'on habite un seul monde possible. Si on prend au sérieux la métaphore du Jardin aux sentiers qui bifurquent, et on devrait le faire, alors notre monde est clairement l'émanation d'innombrables chemins potentiels qu'on aurait pu suivre, mais qui, à cause d'un petit changement, on n'a pas suivis. Mais on a qu'une seule Terre à observer. Ça fait qu'il nous est impossible de savoir ce qui est probable et ce qui est improbable, en particulier pour les événements rares et importants.

Le 10 septembre 2001, par exemple, il y avait une probabilité inconnue que les attaques prévues pour le lendemain réussissent à tuer un grand nombre de personnes. Peut-être que les terroristes avaient 5 % de chances de réussir l'attaque. Ou peut-être qu'ils avaient 95 % de chances, presque une certitude. Mais une fois que le 11 septembre a eu lieu, on ne peut pas rejouer l'histoire et essayer de comprendre ce que c'était, parce qu'on a qu'un seul point de données : ça s'est produit.

Les événements avec une faible probabilité se produisent parfois, et les événements avec une forte probabilité aussi, mais si un événement ne se produit qu'une seule fois, c'est difficile de dire si l'événement était inévitable ou un coup de chance. On peut continuer à lancer une pièce de monnaie pour comprendre ses propriétés, mais on ne peut pas continuer à refaire l'histoire. On ne peut tout simplement pas savoir si notre monde est un échantillon représentatif de tous les mondes possibles, ou si c'est un cas aberrant, une réalité bizarre unique sur un milliard. Avec une seule Terre à observer, il y a certaines choses qu'on ne saura peut-être jamais.

Revenons aux prévisions de Nate Silver lors de l'élection présidentielle de 2016, qui prédisait qu'Hillary Clinton avait 71,4 % de chances de gagner. Les modèles utilisés par son site web sont une agrégation de sondages, combinés à des données "fondamentales" qui sont incluses en fonction des convictions que Silver a sur la façon dont les élections ont tendance à se dérouler en fonction des schémas passés. Silver est un expert mondial de l'estimation de la précision des sondages pour saisir les attitudes du public, puis de la mise en place d'un modèle basé sur ces données, combinées à un ensemble rigoureux d'hypothèses. Mais il n'est pas meilleur que nous pour anticiper ce qu'on appelle l'incertitude épistémique, en regardant dans l'avenir pour prédire des événements très contingents, comme la question de savoir si un gouvernement étranger va pirater un serveur de données politiques ou si les fichiers informatiques non liés à un délinquant sexuel politicien vont inciter le directeur du FBI, James Comey, à rouvrir une enquête fédérale quelques jours avant l'élection. Pourtant, toute l'analyse de Silver a l'apparence d'une science exacte parce qu'elle est incroyablement sophistiquée sur le plan statistique, utilisant des milliers de simulations pour prouver ses arguments. Mais il n'y a pas des milliers d'élections. Il n'y en a qu'une. C'est intrinsèquement incertain. On ne sait pas si le résultat qu'on a connu, la victoire de Trump, était un résultat moyen, un cas extrême, ou quelque chose entre les deux, parce qu'on ne peut pas refaire l'histoire. On peut découvrir que la probabilité sous-jacente d'obtenir "face" lors d'un lancer de pièce est d'environ 50 % en lançant simplement la pièce encore et encore et en observant les résultats. Mais peut-on dire si une pièce est équitable ou biaisée si on a qu'un seul lancer qui donne "pile" ? Évidemment que non. Mais pour des événements uniques dans un contexte très particulier, on essaie trop souvent, et on échoue, à porter ce jugement.

Quand Clinton a perdu, Silver a pointé son modèle comme une défense : 71,4 %, c'est pas 100 % ! Il y avait près de 30 % de chances que Clinton perde dans le modèle, donc le modèle n'avait pas tort, c'était juste quelque chose qui allait se produire près d'un tiers du temps ! Si vous dites qu'on a tort, vous ne comprenez pas les maths ! Ça soulève la question évidente : le modèle de Nate Silver pourrait-il être "faux" lors de cette élection ? Quand le modèle prédit quelque chose avec une faible probabilité et que ça se produit, alors c'est juste le monde qui est bizarre, et pas le modèle qui est incorrect. C'est irréfutable, impossible à réfuter. Et quand on ne peut pas réfuter les choses, on reste bloqué dans des ornières, et nos idées fausses sur notre monde s'aggravent progressivement.

Bon, il reste encore une question persistante à aborder : si l'ancienne vision du monde romancée de l'individualisme ordonné, des relations linéaires et des grands effets ayant de grandes causes est si fausse, alors pourquoi persiste-t-elle ? Sûrement que si elle était si fausse, elle aurait été remplacée par quelque chose de mieux et de plus précis. Non ?

Go Back Print Chapter