Chapter Content

Calculating...

Alors, euh, chapitre... bah, on va dire "Héraclite a raison", hein. Voilà. Bon, ça parle des limites de la probabilité dans un monde qui est complexe et, euh, toujours en train de changer.

Faut voir, on est un peu des machines à prédire, nous les êtres humains. Notre survie, elle dépend de ça, hein. Décider de chercher de la nourriture, de se battre ou de fuir, tout ça, c'est basé sur des tentatives de calculer l'inconnu. Même sans chiffres, sans logique sophistiquée, sans, euh, je sais pas, des experts en probabilités, bah les animaux, ils font des suppositions éclairées sur l'avenir, et ces suppositions, elles sont façonnées par leurs expériences. Nous aussi, hein. Chaque expérience, euh, devient un point de données neurologique, traité par l'ordinateur, euh, rose-gris qu'on a dans le crâne. Quand il se passe quelque chose d'inattendu, bah les réseaux de neurones, ils s'ajustent un peu. C'est comme ça qu'on navigue dans le monde, quoi. Alors, comment ces machines à prédire qu'on a dans la tête, elles font face à un monde instable ? Un monde où une cascade dévastatrice, elle peut être déclenchée par un simple grain de sable ?

Depuis longtemps, on a accepté une certaine incertitude hors de notre contrôle. Pas mal de civilisations, anciennes et modernes, elles ont mis leur foi dans des dieux interventionnistes et qui savent tout. Les prêtres ou les oracles, ils pouvaient puiser dans la sagesse divine ou essayer d'influencer le(s) dieu(x) pour aider les justes et punir les méchants. Mais, euh, c'était pas le rôle de l'humanité de comprendre ou de prévoir l'avenir. Dans cette vision du monde, l'incertitude, c'est pas une caractéristique du monde, mais plutôt un défaut de l'ignorance humaine. Le divin, il sait toujours. Dieu, il se soucie pas des probabilités, quoi.

Le mieux que les simples mortels pouvaient faire, c'était de canaliser la sagesse divine, d'attraper un aperçu utile de ce mystère. Dans la Chine ancienne, par exemple, le Yi Jing, ça fonctionnait comme une machine de divination, avec des tiges d'achillée utilisées pour puiser dans une vérité plus profonde, plus solide. Mais pendant une bonne partie de l'histoire humaine, essayer de surmonter l'incertitude avec des mesures ou des données, c'était considéré comme une entreprise de fou, une tentative blasphématoire de mathématiser Dieu. Pendant des millénaires, étonnamment, il y a eu très peu de tentatives systématiques pour mesurer ou quantifier précisément l'incertitude et le risque.

Peut-être que ça explique en partie pourquoi les Grecs anciens, qui vénéraient un panthéon de dieux, ils ont articulé des pensées extrêmement sophistiquées sur à peu près tout dans le monde naturel, mais ils ont pas réussi à développer même les mathématiques les plus élémentaires de la probabilité. Ce manque de connaissances, c'était assez déroutant parce que les Grecs anciens, ils adoraient les jeux de hasard. Les os des chevilles et des genoux des animaux à sabots, connus sous le nom d'astragales, ils ont été datés d'aussi loin que 5000 ans avant Jésus-Christ en Grèce, où ils étaient utilisés comme précurseur des dés. Les gens, ils contemplaient les chances, même s'ils créaient pas une logique systématique pour celles-ci. Des jeux de hasard similaires existaient aussi dans d'autres cultures à travers l'histoire. Par exemple, le mot arabe pour dés, "al-zahr", c'est là d'où vient le mot "hazard" en anglais, un synonyme moderne pour risque, et le mot espagnol "azar", qui veut dire "chance" ou "aléatoire". Les maths, elles traînaient derrière les jeux, quoi.

Ensuite, la première utilisation du mot latin "resicum", qui a donné naissance à notre mot "risque", est apparue dans un contrat notarial dans la république maritime italienne de Gênes en 1156. C'était utilisé pour attribuer proportionnellement le butin des voyages maritimes risqués à travers la Méditerranée, qui aboutissaient généralement à des richesses, mais parfois à la ruine. Cependant, pour quantifier le risque, pour le mesurer d'une manière logique et précise, il fallait des mathématiciens. Dès le début, leur compréhension du risque, elle était en partie imparfaite, parce qu'elle reprenait la position d'Aristote du passé lointain : que dériver les probabilités futures, ça demandait simplement de calculer "ce qui s'est passé la plupart du temps" dans les schémas réguliers de la vie. (Comme on va le voir, cette supposition, que le passé est un guide fiable pour l'avenir, ça peut être une erreur catastrophique pour naviguer dans un monde en changement.)

La théorie des probabilités, cependant, elle a pas été développée avant bien plus tard. Une raison pour ce retard, c'était, euh, un accident contingent de l'histoire. Les chiffres romains et grecs, ils étaient maladroits à manipuler mathématiquement. Les chiffres arabes, ceux qu'on utilise maintenant, ils se sont pas répandus globalement plus tôt parce que les Européens, ils s'inquiétaient que les chiffres arabes, ils soient trop faciles à falsifier sur les documents officiels. Le chiffre 1, par exemple, il pouvait facilement être changé en un 4 ou un 7. Les chiffres arabes, ils sont devenus dominants en Europe avec l'avènement des presses à imprimer, ce qui rendait les falsifications avec une plume impossibles. L'articulation de la théorie des probabilités en Europe, elle a plausiblement été retardée de siècles à cause d'une hypersensibilité aux documents falsifiés.

Les avancées dans la théorie des probabilités au début, elles ont été motivées par les jeux de hasard. Surtout, en 1654, Blaise Pascal et Pierre de Fermat, ils ont proposé une solution à ce qu'on appelle un jeu interrompu, dans lequel deux joueurs commencent à jouer à un jeu, mais ils sont forcés de s'arrêter pour une raison ou une autre avant que l'un des joueurs ait gagné. Avant Pascal et Fermat, comment partager la mise en fonction de qui était mathématiquement le plus susceptible de gagner, c'était pas clair. En résolvant cette énigme, ils ont déclenché des avancées rapides dans le domaine naissant de la probabilité, soutenues par des titans comme Gerolamo Cardano, le Chevalier de Méré, Jacob Bernoulli, Pierre-Simon Laplace (du démon de Laplace), et Thomas Bayes (qui a développé ce qu'on appelle maintenant l'inférence bayésienne ou les statistiques bayésiennes).

Alors que les outils mathématiques grandissaient, une plus grande proportion du monde pouvait être comprise et calculée. Bientôt, une folie a balayé les intellectuels de la haute société européenne : tout compter. Alors qu'Isaac Newton, il développait sa physique mathématique, dans laquelle le monde est montré comme suivant des schémas quantifiables, les penseurs, ils étaient tentés par la perspective de résoudre les mystères de la société humaine en utilisant des chiffres et des équations. En 1662, John Graunt a produit une évaluation quantitative révolutionnaire de la mortalité à Londres, donnant naissance au domaine de la démographie. Au début et au milieu des années 1800, le philosophe français Auguste Comte a donné naissance au domaine de la sociologie, dérivé fortement d'une branche influente de la pensée qu'il a fondée, appelée positivisme, et d'une nouvelle approche quantitative de la prise de décision rationnelle. L'astronome, mathématicien, sociologue et statisticien belge Adolphe Quetelet a développé les premières sciences sociales qui étaient obsédées par le comptage et la quantification. C'était une période de pensée radicalement nouvelle sur la part de notre monde social qui pouvait être transformée de l'incertitude en certitude.

Au XVIIIe siècle, cependant, le philosophe écossais David Hume, il a averti que la probabilité, c'était loin d'être la certitude, en articulant son fameux "problème de l'induction". L'avertissement de Hume, il était astucieux : la plupart de notre compréhension de la cause et de l'effet, elle est basée uniquement sur l'expérience, basée sur ce qui s'est passé dans le passé. Il y a aucune garantie, a noté Hume, que l'avenir sera comme le passé. Ou, comme il l'a dit d'une manière plus charmante, "la probabilité, elle est fondée sur la présomption d'une ressemblance entre ces objets dont on a eu l'expérience et ceux dont on n'en a pas eu". Les probabilités, ça peut être utile. Mais l'avenir, il pourrait être différent des schémas du passé, et si c'est le cas, ça va nous prendre par surprise. Hume avait raison.

Aujourd'hui, la théorie des probabilités, elle est devenue une branche sophistiquée et lucrative des mathématiques. Des millions de personnes sont employées dans la prévision probabiliste. Des milliards utilisent ces prévisions pour prendre de meilleures décisions et faire des évaluations éclairées sur un avenir inconnaissable. De plus en plus, tout est quantifié, alimenté dans des régressions réductionnistes, des algorithmes toujours plus intelligents et la boîte noire des modèles sophistiqués d'apprentissage machine.

On a fait du chemin depuis qu'on lançait des osselets. Aujourd'hui, on dépend d'oracles plus fiables : la science et la statistique, les brins d'achillée remplacés par des preuves empiriques et des ensembles de données tentaculaires. Ce changement, il a débloqué un vaste potentiel humain. Mais notre foi dans la capacité de l'humanité à devenir le maître de l'incertitude, elle est allée un peu trop loin. On fait trop souvent semblant de pouvoir répondre à des questions auxquelles on peut pas. Cette confiance excessive, ça veut dire qu'on exclut le hasard, le chaos et les coïncidences parce qu'ils rentrent pas dans le monde plus ordonné qu'on aime imaginer qu'il existe.

Pourquoi c'est arrivé ? Une partie de l'explication, c'est qu'on est une victime cognitive de nos succès étonnants. Les scientifiques, ils sont devenus des sorciers modernes. Ils peuvent modifier les gènes, découvrir des particules apparemment invisibles, même détourner des astéroïdes. Ces avancées, elles nous ont donné un sentiment compréhensible, mais erroné, qu'on a compris la plupart des mystères du monde. Trop de gens croient que la connaissance humaine est en train de nettoyer, de ramasser ces quelques inconnues persistantes qui seront bientôt résolues de manière satisfaisante. Il y a pas de remède contre le cancer, mais c'est à portée de main ; il y a pas d'homme sur Mars, mais il y en aura bientôt. L'apparente omniscience de la science moderne, elle semble conférer une protection au reste d'entre nous contre les risques de contingence et de chaos.

Mais beaucoup de choses restent incertaines ou inconnues. Certains des mystères les plus insolubles de l'univers, ce sont les plus fondamentaux et les plus importants. Ils restent enveloppés dans le brouillard de l'incertitude absolue, on sait juste pas. Néanmoins, on est bombardés de prévisions, des sondages aux prévisions économiques, un éventail infini de modèles. Ceux-ci ont une certaine arrogance, comme si on avait dompté le monde. Si vous croyez que le monde peut être prédit, contrôlé et manipulé à notre guise, alors c'est plus facile d'imaginer que les forces arbitraires et mystérieuses jouent un petit rôle dans nos vies. Si vous pensez comme ça, la version romancée de notre monde, elle semble raisonnable. En revanche, si vous avez le sentiment que beaucoup des plus grands et des plus importants mystères restent non résolus, alors il y a plus de place pour reconnaître que les hasards comptent. Pourtant, la plupart d'entre nous ignorent les voiles de brouillard dans lesquels on vit, en gardant les yeux sur ce qu'on peut voir et mesurer.

Le plus grand mystère de tous, c'est la conscience, et on la comprend pas. Depuis 1994, le défi le plus épineux, ça s'appelle le problème difficile de la conscience, le terme inventé par un titan de la philosophie moderne, David Chalmers. On a longtemps été déconcertés par le soi-disant problème corps-esprit, la question de savoir s'il y a quelque chose de fondamentalement différent entre ce qu'on considère comme notre esprit et les structures physiques et chimiques du cerveau. Si on accepte volontiers que les poumons et le foie, c'est juste des morceaux organisés de tissu et de cellules contenant des produits chimiques, pourquoi le cerveau, il serait différent ? Mais Chalmers, il a souligné quelque chose de plus profond. Comment ce tas de tissu humide, rose-beige de 1,4 kg à l'intérieur de votre crâne, il pourrait donner naissance à quelque chose d'aussi mystérieux que l'expérience d'être ce tas rose-beige, et le corps auquel il est attaché ? C'est la question d'être humain, et on n'en a pas la moindre idée.

Ensuite, il y a les lois fondamentales de l'univers. En 1874, un génie allemand qui venait de commencer l'université à l'âge de seize ans, il a demandé à son mentor académique des conseils sur ce qu'il devait étudier. "Ne vous embêtez pas avec la physique théorique", lui a conseillé le mentor. "Dans ce domaine, presque tout est déjà découvert, et tout ce qui reste à faire, c'est de combler quelques trous." Heureusement, l'étudiant, un jeune Max Planck, il a ignoré le conseil et il a décidé d'essayer de combler quelques-uns de ces trous. En 1918, il a gagné un prix Nobel pour avoir développé la nouvelle théorie de la physique quantique, qui a bouleversé tout ce qu'on pensait savoir sur les voies de l'univers.

Aux plus petits niveaux, la matière, elle se comporte d'une manière qui semble impossible. Les interprétations classiques des expériences quantiques impliquent que les minuscules particules, elles peuvent être à deux endroits en même temps, un phénomène appelé superposition. Cependant, quand on observe ces particules, elles s'effondrent en une seule position, ce qui suggère que la réalité change en fonction de si quelqu'un regarde ou pas. Encore plus ahurissant, certaines interprétations de l'intrication quantique suggèrent que des particules jumelles séparées par de vastes distances, elles s'affectent quand même l'une l'autre instantanément, pas rapidement, mais instantanément, quand une particule est mesurée, quelque chose qu'Einstein, il appelait avec mépris "une action effrayante à distance". On n'a pas le vocabulaire pour expliquer ces phénomènes parce que le comportement de ces particules, il est complètement différent de tout ce qu'on rencontre dans notre monde directement observable. Même nos meilleurs scientifiques, ils savent pas ce qui se passe, mais il semble que les particules, elles soient d'une certaine manière complètement imbriquées, par un autre des fils apparemment magiques de la vie.

Peut-être le plus bizarre, certains des meilleurs scientifiques en physique quantique, ils en sont venus à croire l'interprétation des mondes multiples, comme une façon de donner un sens à l'équation de base dans le domaine, connue sous le nom d'équation de Schrödinger. L'interprétation, le fruit de l'imagination d'un étudiant diplômé de Princeton, Hugh Everett, elle a émergé pendant une soirée où "toutes les parties conviennent que des quantités copieuses de sherry ont été consommées". Selon l'interprétation des mondes multiples, tout ce qui pourrait arriver, arrive, donc le monde, il se ramifie constamment en un nombre infini d'univers. La théorie implique qu'il existe des copies infinies de vous, ainsi que des univers infinis dans lesquels vous n'avez jamais existé. Ça peut ressembler au rêve chimérique d'un écrivain de science-fiction des années 1960 qui a pris sa plume après avoir pris trop de LSD, mais c'est aussi l'une des interprétations mathématiques les plus simples des équations fermement validées qui régissent la mécanique quantique, et certains physiciens très intelligents et très accomplis croient que l'interprétation des mondes multiples est vraie. Le fait qu'il existe un nombre innombrable de versions alternatives de vous dans d'autres univers, ça semble être une question importante sans réponse.

Personne comprend vraiment notre monde. Et comme le biologiste évolutionniste Zack Blount, il m'a dit, peut-être que c'est inévitable : "Je suis pas sûr qu'il soit même possible de comprendre pleinement l'univers, du moins pas pour les humains qui utilisent des cerveaux qui ont évolué pour garder des singes sociaux bipèdes en vie assez longtemps pour se reproduire." On vit dans un monde qui nous semblera toujours incertain. La question, alors, c'est : est-ce qu'on peut au moins se comprendre nous-mêmes ?

En 2016, The Economist a analysé quinze années de prévisions économiques du Fonds monétaire international (FMI), couvrant 189 pays. Pendant cette période, un pays est entré en récession 220 fois, un ralentissement économique crucial avec des conséquences graves pour des millions de personnes. Le FMI, il produit des prévisions deux fois par an, une fois en avril, et une fois en octobre, après avoir vu la moitié des données réelles pour l'année. À quelle fréquence ces prévisions, elles prédisent correctement le début d'une récession ? À quelle fréquence nos meilleurs esprits, ils ont raison ?

Sur 220 cas, la réponse pour les prévisions d'avril, c'était aucune. Zéro. Ces prévisions, elles l'ont jamais vu venir. Les prévisions d'octobre, qui avaient déjà six mois de données du monde réel truffées de signes avant-coureurs avec lesquelles travailler, elles ont eu raison seulement environ la moitié du temps. Les prévisions du FMI, elles étaient seulement légèrement meilleures par rapport à un modèle statique qui prédit juste que chaque pays dans le monde, de l'Afghanistan au Zimbabwe, va croître à un taux fixe de 4 % chaque année. En physique, les théories, elles sont écartées si leurs prévisions sont fausses d'une fraction. Mais quand on s'étudie nous-mêmes, on travaille parfois sur des théories qui ont jamais eu raison, même sur des questions aussi basiques que "Est-ce que cette économie, elle va se contracter l'année prochaine ?".

En revanche, en 2004, on a lancé un vaisseau spatial qui a voyagé pendant dix ans avant de se poser doucement sur une comète de quatre kilomètres de large qui voyageait à cent trente-cinq mille kilomètres par heure. Chaque calcul devait être parfait, et il l'était. Inversement, essayer de savoir avec certitude si l'économie de la Thaïlande, elle va croître ou se contracter dans les six prochains mois, ou si l'inflation en Grande-Bretagne, elle sera supérieure à 5 % dans trois ans, bah, c'est juste pas quelque chose qu'on peut faire.

C'est pas pour critiquer les sciences sociales. Je suis un scientifique social désabusé. Pourtant, tous les scientifiques sociaux connaissent un secret dont on parle rarement ouvertement : même nos meilleurs esprits comprennent pas vraiment comment notre monde social, il fonctionne. C'est particulièrement vrai pour les événements rares, non reproductibles et contingents, qui sont souvent les événements les plus importants à comprendre. Notre monde social imbriqué, il est trop complexe pour qu'on le maîtrise, il est entraîné par des boucles de rétroaction et des points de bascule, des forces qui sont constamment en train de changer, influencées par la chance et le chaos, les accidents et les hasards.

Au début du XXe siècle, un économiste renégat nommé Frank Knight, il a contesté la sagesse économique conventionnelle, qui reposait sur une série de suppositions simplistes. Knight, il a articulé de manière convaincante la différence entre, dans sa terminologie, l'incertitude et le risque. (Le risque dans ce contexte, il se rapporte à la volatilité, pas au risque que quelque chose de mauvais arrive.) Knight, il a soutenu que le risque, le plus gérable des deux, il se produit quand un résultat futur, il est inconnu, mais les chances précises que quelque chose arrive, elles sont connues et stables. On sait pas ce qui va se passer, mais on sait comment ou pourquoi ça se passe. Par exemple, lancer un dé à six faces, c'est une question de risque plutôt que d'incertitude. On sait pas sur quel nombre exact il va tomber, mais on sait que chaque nombre a une chance sur six de se retrouver en haut. Le risque, il peut être dompté.

L'incertitude, en revanche, elle se réfère aux situations dans lesquelles un résultat futur, il est inconnu et le mécanisme sous-jacent qui produit ce résultat, il est aussi inconnu, et il peut même être constamment en train de changer. On sait pas ce qui va se passer et on n'a aucun moyen d'évaluer la probabilité que ça se produise. On est complètement dans le noir. Dans cette formulation, le FMI, il échoue constamment à prédire le début des récessions parce qu'il traite une incertitude incontrôlable comme si c'était un risque résoluble. Ça l'est pas, donc la prévision échoue.

La dichotomie de Knight entre l'incertitude et le risque, elle est utile. Pour éviter des erreurs de jugement catastrophiques, c'est essentiel de séparer ce qui peut et ce qui peut pas être connu, parce que certains domaines sont simplement inconnaissables. Pour faire face, beaucoup se sont tournés non pas vers les vieilles superstitions de la divination, mais plutôt vers le confort parfois trompeur des probabilités. La plupart du temps, les probabilités, elles sont correctement appliquées et elles nous aident à naviguer le risque en prenant des décisions plus sages. Mais si vous vous aventurez dans un domaine inconnaissable et incertain, armé de votre probabilité de confiance pour prendre des décisions, vous risquez d'avoir un choc désagréable et potentiellement catastrophique. Ne confondez pas le chaos indomptable avec la chance domptable.

L'économiste et ancien gouverneur de la Banque d'Angleterre, Mervyn King, il l'a bien dit dans une interview récente : "On a tous grandi avec l'idée que si vous êtes intelligent, vous pensez à l'incertitude en termes de probabilités, et il y a beaucoup de gens qui vont essayer d'interpréter n'importe quel type d'incertitude future en termes d'une certaine probabilité. Je pense que c'est une grave erreur et ça nuit à une bonne prise de décision." Les probabilités, c'est un outil merveilleux pour s'attaquer au risque et ça devrait être adopté pour ce genre de problèmes. Dans les cas d'incertitude irrésolvable, cependant, admettre "Je sais pas", c'est souvent mieux que d'utiliser une fausse probabilité basée sur des suppositions erronées pour naviguer dans un paysage inconnaissable.

Parfois, cependant, on doit choisir, même quand on est désespérément incertain. Le monde des questions peut être divisé en deux catégories : celles auxquelles on doit répondre et celles auxquelles on n'a pas besoin de répondre. On pourrait appeler ça les questions "tirez votre meilleure carte" par rapport aux questions "n'essayez même pas". Si vous avez une maladie rare, les médecins, ils doivent décider comment la traiter, même s'ils savent pas ce qui la cause ou ce qui est susceptible de fonctionner. Dire "Je sais pas", c'est pas une option viable pour faire face à une forme mystérieuse de cancer. Tirez votre meilleure carte.

Cependant, aucune loi, aucun impératif moral, stipule qu'on doit prévoir que la croissance économique au Burundi, elle sera exactement de 3,3 % dans cinq ans, ce qui est impossible de précision, certain d'être faux, et ça peut nous amener à faire des erreurs graves parce qu'une fausse certitude obscurcit notre jugement. Dire "Je sais pas", ça veut pas dire que vous devez abandonner et ne rien faire. Ça veut juste dire qu'il faut éviter de faire des prévisions stupides quand c'est pas nécessaire. Quand c'est nécessaire, c'est important au moins de reconnaître les brouillards inséparables de l'incertitude et d'intégrer une acceptation de la dynamique chaotique dans la prise de décision. Malheureusement, le point de vue exactement opposé tend à dominer nos sociétés. Au lieu de récompenser l'humilité intellectuelle, on confond trop souvent à tort la certitude (fausse) avec la confiance et le pouvoir. Trop de gens arrivent au sommet en suivant la stratégie de toujours être certain, mais souvent faux.

Mais si les probabilités sont pas utiles dans les situations d'incertitude réelle, pourquoi on utilise si souvent le raisonnement probabiliste à mauvais escient ? Les problèmes, ils commencent parce qu'on utilise ce seul mot, "probabilité", pour désigner d'innombrables choses différentes. Cette confusion, elle est aggravée parce qu'une fois que quelqu'un fournit un chiffre spécifique comme "une chance de 63,8 %" pour décrire la probabilité d'un événement futur, c'est comme si la quantification, elle avait transformé la personne en un oracle moderne, commandant une connaissance qui est comme par magie devenue plus légitime ou vraie parce qu'elle a été produite par les maths (même si ces maths sont basées sur des suppositions gravement erronées). C'est plus difficile de discuter avec une probabilité déclarée qu'avec quelqu'un qui dit juste "Je crois" que quelque chose va arriver. Mais c'est la bonne façon de voir les choses ?

On entend constamment des déclarations probabilistes. Mais qu'est-ce que ça veut dire en fait de dire qu'il y a une chance de 80 % de pluie aujourd'hui ? La réponse, elle semble évidente jusqu'à ce qu'on essaie de l'expliquer à quelqu'un d'autre. Est-ce que ça veut dire que, étant donné exactement les mêmes conditions physiques initiales dans l'atmosphère, il pleuvra 80 % du temps (comme si les schémas météorologiques, c'était comme lancer des dés avec des chances statiques) ? Est-ce que ça veut dire que sur cent mondes imaginés possibles avec des conditions similaires à aujourd'hui, on devrait s'attendre à ce qu'il pleuve dans quatre-vingts d'entre eux, mais pas dans vingt autres ? Est-ce que ça veut dire que les preuves sont incertaines dans le modèle météorologique, mais que les prévisionnistes, ils veulent que vous sachiez qu'ils ont un niveau de confiance de 80 % dans la prédiction qu'il va pleuvoir ?

Et qu'est-ce que ça veut dire qu'une prévision ait raison ? Est-ce que la prévision, elle est fausse s'il pleut pas, étant donné que la probabilité de pluie était supérieure à 50 % ? Sûrement, ça peut pas être juste, parce que 80 % et 100 %, c'est pas la même chose. Ou est-ce que la prévision, elle est correcte s'il pleut quatre-vingts fois sur cent chaque fois que la prévision dit qu'il y a une chance de 80 % de pluie ? Dans ce cas, vous pouvez seulement vérifier l'étalonnage précis d'une prévision sur un grand nombre de prédictions répétées. Mais qui peut dire que les conditions physiques d'aujourd'hui sont comparables à celles de l'avenir ? Après tout, comme la théorie du chaos l'a démontré, de minuscules variations dans les systèmes physiques qui produisent la météo peuvent produire de grands changements. Et si on comparait des pommes et des oranges ?

Ces questions, elles deviennent encore plus difficiles quand la probabilité, elle passe des schémas météorologiques à un événement unique et non reproductible, comme une élection. Qu'est-ce que ça veut dire quand Nate Silver, il a prédit qu'Hillary Clinton, elle avait une chance de 71,4 % (pas 71,3 ou 71,5) de gagner l'élection présidentielle de 2016 ? Est-ce que ça veut dire que si vous relancez l'élection encore et encore dans le modèle informatique, Clinton, elle arrive en tête 71,4 % du temps ? D'accord, mais il y a juste une élection, avec un seul résultat, et vous pouvez pas relancer la réalité encore et encore, peu importe combien on pourrait souhaiter le faire avec le recul. Ou, est-ce que ça veut dire que les élections, c'est comme lancer des dés, mais au lieu d'avoir une chance sur six, le dé d'Hillary Clinton, il était pondéré pour afficher une victoire 71,4 % du temps ? Quand elle a perdu, la prévision de 71,4 %, elle était fausse, ou c'était juste que le résultat le moins probable, il s'est produit ?

Clairement, on a un problème. Quand on dit "Il y a une probabilité de X pour cent que Y se produise", beaucoup de suppositions non écrites et non dites sont intégrées dans cette déclaration, et ça pourrait vouloir dire des choses follement différentes. Dire "Il y a une chance de 60 % que Confucius, il était une vraie personne de l'histoire", c'est probabiliste, mais "il y a une chance de 50 % qu'une pièce atterrisse sur face lors du prochain lancer", ça l'est aussi. C'est des types d'affirmations radicalement différents, mais les deux sont regroupés sous l'étiquette probabilité. Pour embrouiller les choses davantage, un approvisionnement infini de mots décrivent les probabilités : bayésienne, objective, subjective, épistémique, aléatoire, fréquentiste, propension, logique, inductive ou inférence prédictive. Pour empirer les choses, ces étiquettes veulent dire des choses différentes pour différentes personnes.

Essayons de clarifier la confusion.

Il y a deux camps principaux pour les déclarations de probabilité. Comme l'explique l'éminent philosophe des sciences Ian Hacking, beaucoup de probabilités font partie soit de la probabilité de type fréquence, soit de la probabilité de type croyance.

Le type fréquence, il est surtout basé sur la fréquence à laquelle un résultat va se produire, surtout sur le long terme lors d'essais répétés. Par exemple, si vous lancez une pièce cent fois, vous pourriez obtenir quarante-trois fois face et cinquante-sept fois pile. Deux explications pour ce résultat sont possibles. Peut-être que c'est une pièce truquée qui atterrit plus souvent sur pile. Alternativement, la pièce pourrait être une pièce équitable de cinquante-cinquante, et il y a juste eu une légère variation dans ces cent lancers. Une fois que cent lancers de pièce, ils deviennent cent millions, ça deviendrait clair si la pièce, elle était truquée. Si c'est une pièce équitable, la proportion globale de face et de pile convergerait vers un ratio de cinquante-cinquante.

Les probabilités de type croyance, elles sont complètement différentes. Ce sont des expressions d'un degré de confiance que vous avez dans une affirmation spécifique ou un résultat futur, basé sur les preuves disponibles. Confucius, il était soit une vraie personne, soit il l'était pas, donc toute déclaration probabiliste sur son existence, c'est une probabilité de type croyance. C'est complètement différent d'un lancer de dés. C'est pas comme si vous pouviez juste continuer à lancer un modèle informatique de l'histoire et voir dans combien de mondes Confucius existe et dans combien il n'existe pas. Au lieu de ça, c'est juste une meilleure estimation basée sur les preuves que vous avez, mise sous forme numérique. Mais ceux qui font des déclarations de probabilité expliquent rarement si leur affirmation, c'est un type croyance ou un type fréquence, ce qui laisse les gens compréhensiblement confus. Cette confusion, elle crée un tour de passe-passe intellectuel, et elle laisse souvent les gens trop disposés à se ranger derrière le vernis d'une sagesse apparemment automatique qui accompagne souvent les chiffres et les statistiques dans la société moderne.

La probabilité, elle peut seulement être un guide utile dans certaines situations. Quand on est confronté à un problème dans un système simple et fermé, comme un lancer de dés, avec six résultats possibles clairement définis, alors le raisonnement probabiliste, il fonctionne parfaitement. Mais quand on déplace la probabilité dans le domaine de la réalité désordonnée, dans les systèmes adaptatifs complexes dans lesquels on vit, bah, les choses peuvent mal tourner assez rapidement. Les probabilités, elles peuvent être mieux appliquées aux situations dans lesquelles "les résultats possibles sont bien définis, les processus sous-jacents qui les génèrent changent peu avec le temps, et il existe une richesse d'informations historiques [pertinentes]". Malheureusement, pour beaucoup des problèmes les plus importants auxquels on fait face, ces suppositions, elles s'appliquent pas. La probabilité, elle fonctionne pas dans le chaos.

Pour voir pourquoi, revenons à un problème concernant le risque plutôt que l'incertitude : les lancers de pièce. La dynamique sous-jacente de la cause et de l'effet, elle est stable à travers le temps et l'espace. Elle est, pour utiliser le terme technique, stationnaire. Ça importe pas que la personne qui lance la pièce, ce soit un soldat de la dynastie Qin dans la Chine ancienne ou un barman dans la Virginie-Occidentale moderne. Les proportions globales de face et de pile devraient chacune finir à environ 50 %. De plus, quand on parle de la probabilité d'un lancer de pièce, on parle de la distribution moyenne des résultats, plutôt que d'essayer de prévoir si un lancer spécifique sera face ou pile. On peut aussi effectuer des lancers de pièce autant de fois qu'on veut, donc le phénomène, il est reproductible. Les pièces elles-mêmes, elles sont aussi comparables ou échangeables, ça importe pas que j'utilise ma pièce ou la vôtre, tant qu'elles sont toutes les deux des pièces de 25 cents ou qu'elles font partie d'une catégorie de pièces équitables plus généralement. En raison de tous ces facteurs, la probabilité du lancer de pièce, elle est convergente. Plus vous le faites longtemps, plus vous vous rapprocherez de 50 % pour chaque résultat. La combinaison de ces facteurs (stationnaire, moyenne, reproductible, comparable et convergent) rend les lancers de pièce idéaux pour l'analyse probabiliste, dans laquelle les événements passés sont un prédicteur presque parfait des résultats futurs.

Maintenant, considérons un autre exemple, dans lequel on essaie de savoir si l'ibuprofène, il aide à soulager les symptômes de maux de tête. C'est plus compliqué que les lancers de pièce, mais les mêmes principes s'appliquent. À moins que les maux de tête, ils soient causés par une nouvelle maladie inconnue, il est sûr de dire que le mécanisme par lequel l'ibuprofène peut aider à soulager les symptômes de maux de tête, il change pas de jour en jour, donc c'est un problème stationnaire. On est aussi intéressés par les moyennes parce qu'on cherche un traitement qui tend à fonctionner à travers tous les patients possibles, pas un qui va fonctionner dans chaque cas spécifique. Les maux de tête, malheureusement, ils sont extrêmement reproductibles à la fois au sein des individus et chez les humains plus généralement. Ils sont aussi principalement comparables, parce que c'est une supposition raisonnable que le processus chimique qui réduit mon mal de tête va probablement réduire le vôtre aussi.

Cependant, ça a seulement du sens si on utilise la bonne catégorie. Ça peut sembler pédant, mais le langage qu'on utilise, il compte énormément pour les probabilités. Les statistiques, elles sont aussi bonnes que notre linguistique. Et si j'utilisais le mot mal de tête pour désigner une migraine ou une sensation de douleur à la tête produite par une tumeur au cerveau ? Les estimations basées sur la probabilité reposent sur des catégories précises, la notion que quand je me réfère à un mal de tête dans différents contextes, je compare des pommes à des pommes plutôt que des

Go Back Print Chapter