L’activité économique peut se représenter en partie de matière quantitative, qu’il s’agisse de revenus, de patrimoines, d’impacts sur l’environnement, de ressources matérielles ou monétaires à mobiliser pour produire des marchandises, les transporter et les vendre. Il est donc logique qu’une partie de l’économie (comme discipline) cherchant à représenter l’économie (comme activité) puisse, voire doive, s’appuyer sur des données chiffrées et tente de mettre en évidence des liens mathématiques entre ces données pour les expliquer voire en anticiper les évolutions.
Depuis la fin du XIXe siècle, les économistes ont eu recours de façon croissante aux mathématiquesmaths1 et à des modèles mathématiques (voir encadré ci-dessous). De ce fait, l’économie est parfois considérée comme plus « scientifique » que les autres sciences humaines et socialesmaths2. Dans cette fiche, nous allons présenter trois domaines d’usage des mathématiques en économie. Nous verrons que cette utilisation peut conduire à des abus, par exemple en tenant pour acquis un résultat qui dépend de nombreuses hypothèses non vérifiées dans les faits, ou en en généralisant un autre, bien au-delà de son domaine de validité. Nous verrons également quelques cas où ce recours est utile et légitime ainsi que les précautions à prendre.
Sommaire
N.B. Nous n’abordons pas ici la question plus fondamentale de la place de la quantification dans nos sociétésmaths3. Nous n’évoquons pas non plus ici un usage spécifique aux mathématiques financières, l’invention de produits financiers, sujet dont l’importance ne doit pas être sous-estimée car, dans ce cas, les mathématiques participent à la construction de la réalité et de son interprétation en ayant une action performativemaths4. Enfin, nous n’évoquons pas le cas des entreprises qui utilisent en comptabilité et finances des mathématiques pour leurs décisions.
Qu’est-ce qu’un modèle mathématique ?
Un modèle mathématique est constitué d’un ensemble d’équations mathématiques et d’une méthode de résolution, qui ont pour fonction de prévoir la valeur d’une ou plusieurs variables d’intérêtmaths5, en fonction de paramètresmaths6 fixés par l’utilisateur et d’une ou plusieurs variables d’entrée.
Par exemple, la météo peut être prévue par un modèle mathématique, dont les équations sont des lois physiques, les paramètres quelques caractéristiques bien choisies de l’atmosphère terrestre, et dont les variables d’entrée sont les conditions initiales (température, humidité, vents etc.) caractérisant la météo constatée. Les variables de sortie de ce modèle sont la température, l’humidité, la couverture nuageuse, etc. à une date ultérieure.
On apprend au lycée dans les cours de physique des modèles très simples comme, par exemple, celui qui permet de calculer le point d’arrivée d’une balle pesant un certain poids lancée d’un certain point de départ avec une certaine vitesse. En économie, l’enseignement de la microéconomie est appuyé sur de nombreux modèles d’optimisationmathsoptimisation.
L’aide à l’interprétation du monde économique
Le réel ne nous étant pas accessible directement, nous utilisons, pour tenter de lui donner forme, des instruments et/ou des outils qui peuvent être soit matériels, comme les instruments de mesures en physique ou en biologie, soit conceptuels, c'est-à-dire relevant de théorie.
L’économie manipule des chiffres (notamment dans la comptabilité privée ou publique et les échanges marchands) depuis des siècles (voire des millénaires, les premiers usages des nombres étaient en partie liés au commerce et à la propriété foncièremathshistoire). Les mathématiques permettent de fournir des mesures de phénomènes qui ne sont pas immédiatement accessibles aux sens par le biais de données brutes, comme par exemple l’ampleur et la répartition des inégalités sociales (avec des indicateurs comme les ratios de Gini ou de Palma, que nous expliquons dans notre fiche sur les mesures des inégalitésficheinegalites).
Les concepts utilisés en économie contribuent à l’interprétation et, d’une certaine manière, au façonnage du monde économique. Le chômage ou le sous-emploi, l’inflation, le pouvoir d’achat sont des notions construites, des concepts qui font voir des phénomènes invisibles directement. Ils peuvent en outre se quantifier et cette quantification conduit à un certain regard sur l’état de la société. Il n’est, par exemple, pas indifférent à notre perception du monde que le taux de chômage soit très faible ou au contraire élevé (ce qui, à nouveau, s’apprécie par des données chiffrées).
L’intérêt pédagogique des toy models
En économie, la pédagogie, qui vise à fournir des clefs de lecture et donc d’interprétation, peut être facilitée par l’usage des mathématiques et, en particulier, par celui de petits modèles ou toy models, une pratique habituelle en physique.
Prenons quelques exemples.
La sensibilité des consommateurs aux prix des biens achetés, c'est-à-dire le fait que la consommation d’un bien va plus ou moins varier en fonction de son prix, s’analyse en utilisant la notion d’élasticitéficheelasticite qui s’exprime par une équation mathématique. En utilisant cette notion et en essayant de calibrer l’équation (c’est-à-dire de déterminer la valeur des différents paramètres en fonction de comportements d’achat observés) on peut tirer des conclusions sur l’efficacité d’une taxe sur l’énergie ou sur les conséquences d’une hausse des prix.
L’idée, assez contre-intuitive, qu’une politique d’économie d’énergie peut conduire à des hausses de consommation d’énergie se comprend grâce au concept d’effet-rebondficherebond, introduit par William Stanley Jevons dès la fin du XIXe siècle. Cet effet se définit mathématiquement, ce qui permet de faire des tests empiriques sur sa réalité et son ampleur.
La notion de croissance économique repose sur des mathématiques assez simples, mais aux propriétés en général mal appréhendées : celles des courbes exponentielles, très différentes des phénomènes linéaires. Il est important – mais pas immédiatement évident – de comprendre, par exemple, qu’un taux annuel de croissance d’une quantité de 3% (apparemment faible, et qui est en ordre de grandeur le taux de croissance du PIB mondial depuis cinquante ans) conduit à une multiplication par 19 en cent ans et à un cumul sur cette période de 620 fois la quantité initiale.
Appliqué au problème du recyclage, et via un modèle mathématique assez simplemaths7, on comprend que le recyclage ne permet pas de contrer le fait qu’une consommation exponentielle épuise une ressource finie. Comme le dit François Grosse : Si la consommation de matière croît de plus de 3% par an – comme c’est le cas depuis un siècle pour le fer et le cuivre, recycler, même à 90%, nos déchets n’a qu’un effet dérisoire sur la préservation des ressources.maths8 Mais le modèle permet de déterminer les conditions suffisantes pour que le recyclage soit efficace (c'est-à-dire, selon l’auteur, qu’il permette de retarder d’au moins 100 ans l’épuisement de la ressource naturelle concernée). Celles-ci dépendent de trois paramètres : le taux de croissance de la consommation de la ressource (qui doit être inférieur à 1%), l’efficacité du recyclage et le temps de séjour du matériau dans l’économie. Cet exemple montre bien l’utilité de ce type de modèle : il permet d’appréhender un phénomène non intuitif.
La construction et la validation de théories
Pour interpréter le réel, les économistes élaborent des théories. Celles-ci reposent nécessairement sur une simplification de la réalité et sur le recours à des concepts abstraits (tels celui de consommateur, de producteur, de marché du travail etc.). Établir des règles, des corrélations, voire des causalités entre les phénomènes complexes, nécessite, en effet, de partir d'hypothèses et de faits simplifiés (aussi appelés stylisés).
De ce travail d’abstraction découle la possibilité de la formalisation mathématique, qui prend le plus souvent la forme de la modélisation, c'est-à-dire d’une représentation simplifiée de la réalité économique, ou d'une partie de celle-ci, via un système d’équations.
Après avoir rappelé l’importance du critère de réfutabilité pour qu’une théorie soit valide, nous allons voir en quoi le recours à la formalisation mathématique peut être utile et quels sont ses dangers.
2.1. La discipline économique est remplie de théories qui ne passent pas le test de la réfutabilité
En économie, de nombreuses théories prennent la forme d’arguments d’autorité. Résumées en une affirmation considérée comme allant de soi, elles sont formulées de façon beaucoup trop imprécise et générale pour être réfutables. Le recours au formalisme mathématique et à des données quantitatives peut, de plus, leur apporter une apparence de rigueur, trompeuse pour les non-spécialistes.
L’importance de la réfutabilité d’une théorie
Toute théorie doit idéalement pouvoir être réfutablemathsrefutabilite, c’est-à-dire qu’elle doit être formulée de façon suffisamment précise pour qu’il soit possible de :
- vérifier qu’il n’y a pas de faille logique interne à la théorie elle-même ;
- vérifier que les hypothèses qui la fondent ne sont pas trop simplificatrices ou éloignées de la réalité pour répondre à la question étudiée ;
- confronter la théorie et ses conclusions aux données chiffrées réelles.
Ainsi, doit-on pouvoir répondre par exemple aux questions suivantes : de quelle notion parle-t-on ? sur quelles périodes et sur quels pays ? quelle est la nature de la relation – corrélation, lien de causalité ? – entre les variables concernées ? Pour cela, un modèle mathématique, éventuellement simple, peut être construit puis testé.
Nous allons donner dans la suite quelques exemplesmaths9 d’affirmations considérées comme allant de soi et donc formulée de façon bien trop imprécise pour être réfutable.
2.1.1. La création monétaire est inflationniste
Cette affirmation est considérée comme une vérité économique à tel point qu’elle est au cœur de l’action des banques centrales occidentales depuis quatre décennies. Or elle n’a pas de réelle consistance. Il faut pouvoir la contrôler quantitativement en en précisant les termes : la création monétaire publique ?, celle de la Banque centrale ?, celle des banques commerciales ?, mesurée par quel indicateur?, sur quelle zone monétaire ?, sur quelle période ?
On doit aux économistes Gérard Debreu et Kenneth Arrow les démonstrations théoriques des trois théorèmes suivants :
L’existence d’un système de prix qui conduit à l’équilibre général (c’est-à-dire que le prix des biens est tel que l’offre égale la demande, et ceci pour tous les marchés) dans une économie en concurrence pure et parfaite ;
Le fait que cet équilibre soit un optimum au sens de Pareto, une situation telle qu'il est impossible d'améliorer le sort d’un agent économique sans réduire la satisfaction d'un autre ;
L’existence d’une allocation de biens initiale permettant de conduire à un optimum jugé souhaitable (du point de vue de l’efficacitémathsefficacite).
L’exégèse de ces travaux est abondantemaths10 et nous n’allons pas ici la synthétiser mais insister sur quelques points :
Les termes employés pour la démonstration (concurrence pure et parfaite, optimum de Pareto, équilibre sur un marché, etc.) ont un sens précis dans la modélisation mathématique qui ne correspond pas toujours au sens courant ;
La démonstration mathématique est indiscutable mais elle repose sur de nombreuses hypothèsesmaths11 dont l’immense majorité ne sont pas vérifiées en pratique ;
Dès lors, il est abusif d’affirmer que ces démonstrations prouvent la supériorité de la concurrence pure et parfaite. C’est d’ailleurs bien contraire aux faits : les situations d’oligopoles sont très fréquentes et principalement pour des raisons d’efficacité (liée au fait que les rendements sont rarement décroissants, comme l’exige la démonstration) ;
Il est également très discutable, bien que souvent affirmé dans les cours d’économie, que ces travaux prouvent que les questions d’équité sont en dehors du champ de l’économie et seraient donc à résoudre par une intervention redistributive du politiquemaths12 ;
Certains économistes, à la suite de Léon Walras, l’un des pères de l’économie mathématique, font de la concurrence pure et parfaite une norme, un idéal à rechercher ; ils passent ainsi, sans toujours le dire, de l’analyse économique à une pensée normative, qui n’est pas scientifique mais, bien sûr, politique (voir paragraphe 3.3). Citons Walras : M. Pareto croit que le but de la science est de se rapprocher de plus en plus de la réalité par des approximations successives. Et moi je crois que le but final de la science est de rapprocher la réalité d’un certain idéal ; c’est pourquoi je formule cet idéal.maths13
2.1.3. Le théorème des avantages comparatifs
On doit à David Ricardo un argument en faveur du commerce international, connu sous le nom de théorème des avantages comparatifs, par opposition à celui des avantages absolus formulé par Adam Smith quelques décennies plus tôt.
En termes simples, selon ce théorème, tout pays gagnerait à se spécialiser dans la production des biens pour lesquels son avantage comparatif est le plus élevé, c’est-à-dire dont les coûts relatifs sont les plus bas, et à acheter à l’étranger les biens qu’il ne produit pas. C’est donc un argument pour le libre-échange : tous les pays pourraient gagner du libre-échange en se spécialisant.
Ce théorème est en général démontré en représentant l’économie de manière ultra simplifiée, via un modèle mathématique basique, comme l’avait fait Ricardo (deux pays produisant chacun les deux mêmes biens avec comme seuls coûts ceux de la main d’œuvre, sans impact sur les ressources naturelles, sans fiscalité, sans transport, sans monnaie, ni crédit, etc.).
Ce modèle n’a à l’évidence pas la capacité à représenter l’économie réelle dans sa complexité, comme l'explique la vidéo ci-dessous :
Il ne peut donc être déduit de ce théorème aucune conclusion générale comme, par exemple, la supériorité du libre-échange sur le protectionnisme dans le monde réel. La littérature théorique ultérieure a, bien entendu, cherché à complexifier ce très frustre modèle initial sans néanmoins permettre de concluremaths14, tant la réalité en la matière ne se laisse pas enfermer dans une représentation mathématique.
2.1.4. Les marchés financiers sont efficients
La démonstration de l’efficience des marchés financiers a valu à l’économiste Eugene Fama en 2013 le prix Nobel d’économie qu’il a partagé avec un autre économiste, Robert Shiller qui… conteste à juste titre cette idée, en affirmant au contraire que les marchés sont exubérants et irrationnelsmaths15.
Là aussi cette idée a fait couler beaucoup d’encremaths16. Le mathématicien Nicolas Bouleau en a fait une remarquable analyse critique, centrée sur la question sémantique et l’usage de la modélisation.
On voit qu’on tente ainsi de relier la notion économique d’efficience qui ne peut signifier autre chose que la bonne allocation des ressources (capitaux, investissement) de sorte qu’on évite les gaspillages, à des formalisations mathématiques concernant les processus aléatoires (martingales ou semi-martingales pour les prix actualisés, processus de Markov, filtrations).
Ce que veut dire Nicolas Bouleau ici, c’est que la question de l’efficience des marchés est simple à exprimer : est-ce que, par le simple jeu des marchés, le crédit et l’épargne sont bien utilisés ? L’emploi d’un outillage mathématique extrêmement complexe, aussi impressionnant qu’il soit au plan mathématique, ne permet pas d’y apporter une réponse définitive. Il y a en effet bien trop d’étapes à franchir pour relier la réalité à la formalisation employée.
2.2. L’intérêt des mathématiques dans la construction et la validation de théories
Le fait de recourir à une formulation mathématique a plusieurs avantages :
2.2.1. Cela oblige à éviter des ambiguïtés
Le langage courant est ambigu et la qualité première des mathématiques est d’obliger à préciser la définition des termes utilisés. Le chômage, ce n’est pas la sous-activité, la monnaie centrale n’est pas la monnaie scripturale, le temps de travail effectif n’est pas le temps de travail légal, l’énergie finale n’est pas l’énergie primaire, le capital productif n’est pas le capital comptable des entreprises, etc. Ces précisions exprimées ici de manière littéraire sont indispensables quand on passe à la quantification.
Notons cependant qu’il est important de garder cette rigueur lexicale dans le passage des modèles mathématiques au réel. Citons le mathématicien Ivar Ekelandmaths18 : Je me rappelle toujours ce que disait Hector Sussmann de la théorie des catastrophes, il y a bien longtemps : "En mathématiques, les noms sont libres. On a le droit d'appeler un opérateur autoadjoint un éléphant, et une résolution spectrale une trompe, moyennant quoi on peut démontrer que tout éléphant a une trompe. Ce qu'on n'a pas le droit de faire, c'est de prétendre que cela a quelque chose à voir avec de gros animaux gris".
2.2.2. Cela permet de faire des raisonnements rigoureusement logiques
La caractéristique la plus remarquable du raisonnement mathématique c’est qu’il est possible de le contrôler de manière impersonnelle et infaillible : un modèle mathématique bien fait et contrôlé produit des conclusions qui sont aussi solidement établies qu’humainement possible, mais restent bien sûr fonction des hypothèses faites. In fine, la solidité d’une conclusion qui émane d’un raisonnement mathématique est exactement égale à la solidité des hypothèses qui ont servi à initier ce raisonnement logique. Cette propriété des mathématiques ne doit pas être sous-estimée dans le domaine économique : grâce à elle, on peut débusquer des erreurs de logique qui sont innombrables dans le langage et le raisonnement courant, et ce d’autant plus que l’économie est l’objet de passions, d’intérêts et de dogmes.
Elle permet aussi d’établir les conditions de validité d’un énoncé. La modélisation mathématique suppose toujours des hypothèses et la rigueur intellectuelle permet de les expliciter. Il est alors possible de contrôler leur degré de réalisme. Dans le cas, par exemple, de la Théorie de l’équilibre général (TEG), une des hypothèses est, comme on l’a vu, celle dite des rendements décroissants ; une fois formulée, il est possible de vérifier si elle est valide ou pas (et, en l’occurrence, elle n’est plutôt jamais vérifiée…)
Pour autant, malheureusement, cette rigueur n’est pas toujours au rendez-vous, comme nous allons le voir. Et le discours économique est plein d’affirmations très générales issues de démonstrations dont le domaine de validité est très étroit, voire inexistant (c’est le cas du TEG : on ne connaît pas de situation de marchés completsmaths19 en concurrence pure et parfaite).
2.2.3. La formulation mathématique permet de tester statistiquement la capacité des énoncés (ou de la théorie) à rendre compte des données empiriques
L’économétrie est la branche de l’économie qui vise à tenter de vérifier si des énoncés abstraits rendent compte des données empiriques. Si vous affirmez que la variable A est fonction de la variable B (mathématiquement A = f(B), f étant une fonction mathématique pouvant prendre de nombreuses formes), les tests économétriques permettent de vérifier cette affirmation, en analysant les valeurs prises par les variables A et B dans les N dernières années.
C’est ainsi, par exemple, qu’il est possible de tester l’hypothèse selon laquelle la croissance du PIB nécessite la croissance de la consommation d’énergie primairefichecroissanceenergie. Cette affirmation peut être contrôlée sur des époques données, sur des territoires données, etc. Ces tests économétriques ont l’avantage d’éliminer les énoncés théoriques qu’ils infirment (par exemple, l’énoncé selon lequel la création monétaire est inflationniste) et de ne reposer sur quasiment aucune hypothèse (ils ne font que confronter le réel à des hypothèses tests). Cependant, dans la plupart des cas, ils ne permettent pas de conclure à une causalité, mais seulement à des corrélations.
Les ventes de glaces et les coups de soleil augmentent, tous les deux, au cours de l’été. Ils sont corrélées. Conclure que les coups de soleil s’attrapent en mangeant des glaces ou qu’attraper des coups de soleil incite à acheter des glaces serait cependant absurde. L’augmentation simultanée de ces deux variables s’explique en réalité par une troisième, le beau temps.
Voici un exemple économique : la dette publique est-elle néfaste pour la croissance économique ? Dans l’article Growth in a time of debt paru en 2010, Carmen Reinhart et Kenneth Rogoff, deux économistes reconnus pour leurs travaux sur la macroéconomie et l’économie internationale, publient un article selon lequel la croissance économique était plus lente dans les pays ayant un ratio dette publique sur PIB supérieure à 90%. Faut-il en conclure qu’une dette élevée provoque un ralentissement de la croissance, et qu’il convient donc de mettre en œuvre des politiques visant à réduire ce ratio sous la barre des 90% ?
Des études ultérieures ont contredit le principal résultat de l’article de Reinhart et Rogoff (qui était, en outre, entaché de grosses erreurs révélées par un jeune thésard du nom de Thomas Herndonmaths20, ce qui a déclenché une tempête médiatique). Nombre d’entre elles ont en outre réfuté, grâce à des modèles statistiques complexes, l’existence d’un lien causal entre une dette publique élevée et une croissance économique faible. Un article de John Irons et Josh Bivensmaths21 a même mis en évidence un effet causal inverse : une croissance économique lente entraînerait une augmentation de la dette publique.
Pour contourner cette difficulté et mettre en évidence des causalités, certains économistes recourent à des expériences naturelles ou aléatoiresmaths22.
Dans ces expériences, on compare l’évolution d’un paramètre P1 (le taux de chômage par exemple) pour deux groupes d’individus semblables sauf pour un autre paramètre P2 (le niveau de l’allocation chômage par exemple), qu’on change pour le groupe A. Le paramètre P1 évolue donc dans les deux situations A et B, et s’il évolue différemment chez A par rapport à B, c’est donc à cause du paramètre P2 que l’on a fait varier (et c’est donc une causalité, plus seulement une corrélation). En l'occurrence on voit que l'effet existe mais est très faible.
En économétrie, de nombreuses méthodes sont utiliséesmaths23 : régression linéaire, analyse des séries temporelles, modèles à variables instrumentales, régression avec discontinuité, modèles à variables instrumentales naturelles.
Un pan important des travaux économétriques essaie de répondre à la question des attributions causales, notamment en matière d’évaluation des politiques publiques. Or ces méthodes sont discutables et par ailleurs ne sont pas toujours applicables.
En effet, le système économique ne repose pas, comme le climat, sur des sciences physiques éprouvées (thermodynamique, mécanique des fluides, physique des radiations, de l’atmosphère, des particules, chimie etc.). L'attribution des causes en économétrie repose nécessairement sur des hypothèses discutables, des modèles qui le sont aussi (voir partie 3.1) et bute sur des limitations inhérentes aux données disponibles. Si les auteurs du rapport du Groupe 3 du GIEC qui porte sur les politiques à mettre en œuvre pour atténuer le changement climatique (2022) osent affirmer que les politiques publiques ont joué un rôle dans la réduction du taux de croissance des émissions des gaz à effet de serre des dernières années, c’est qu’ils ont pris en considération de multiples études aux approches différentes, convergeant néanmoins sur cette conclusion (importante, car il est vraiment utile de pouvoir dire si ces politiques sont efficaces ou non). Cette conclusion reste cependant plus fragile que celles des travaux du groupe 1 qui portent sur la physique du climat.
L’attribution des causes en science du climat
Notons que la science de l’attribution climatique a fait d’énormes progrès. Il est devenu possible d’attribuer la responsabilité du changement climatique dans la survenance de tel ou tel événement extrême (un ouragan, une canicule, des pluies torrentielles, etc.). Un organisme mondial a été créé, le World Weather Attribution, qui utilise notamment des méthodes probabilistes introduites par les travaux précurseurs de Peter Scott (du Centre Hadley) réalisées à la suite de la canicule européenne de 2003. La complexité extraordinaire du système climatique n’empêche donc pas d’attribuer au réchauffement en cours la survenue de divers événements.
Les dangers des mathématiques en économie
Le recours aux mathématiques a les avantages que nous venons de voir, mais n’est pas sans danger. Nous allons en expliciter les plus saillants.
3.1 L’abus d’autorité
L’usage des mathématiques en économie conduit à des abus liés à l’autorité qui est conférée -inconsciemment ou non- au langage mathématique, difficile d’accès et d’une puissance inouïe. Les mathématiques permettent aussi de cacher des hypothèses absurdes ou grossièrement simplistes sous des formulations abstraites. On ne dira pas on suppose que tous les consommateurs sont identiques et achètent toujours la même chose, peu importe leur revenu, mais les préférences des consommateurs sont homogènes et de degré 1. Le livre de Steve Keen titré L’imposture économique Les Éditions de l’Atelier, (2017) est rempli d’exemples de ce type, qui relèvent bien de l’imposture.
La mathématisation d’une discipline la pare ipso facto des habits de la science et de qualités de solidité qui peuvent cependant être largement usurpés.
Scientiforme ne veut pas dire scientifique.
Certes, toutes les disciplines académiques sont difficiles d’accès, et il ne peut leur être reproché de l’être aux profanes. Mais quand les économistes promeuvent des propositions de politiques publiques qui ont des conséquences sociétales, les citoyens ne peuvent se contenter d’arguments d’autorité, même appuyés sur un appareillage mathématique. Comme nous l’avons vu dans les exemples précédents, les démonstrations mathématiques de l’équilibre général ou de l’efficience des marchés ne permettent pas d’en tirer des conclusions pour l’économie réelle.
3.2. La confusion entre recours aux mathématiques et scientificité
L’usage des mathématiques peut faire croire que l’économie est une science, à l’instar de la physique, et que ses énoncés, pour autant qu’ils soient soumis au contrôle des pairs dans une revue scientifique, ont la même solidité que les énoncés physiques les plus rigoureux. Sans prétendre rendre compte du débat très vifmaths24 au sein de la discipline économique, on peut faire quelques remarques.
La publication d’un article dans une revue académique implique normalement qu’il ait été relu et contrôlé par des pairs. Cela limite clairement les risques d’erreur de calcul et de raisonnement ; cela permet aussi de reproduire un travail équivalent sur d’autres jeux de données (dans le temps ou dans la géographie). Il est donc toujours souhaitable face à un énoncé économique de s’assurer qu’il a fait l’objet d’une publication dans une revue sérieuse (qui fait relire les publications selon les règles en la matière).
Mais cela ne peut conduire à des conclusions définitives sur la vérité des conclusions de ce travail. La relecture par les pairs est en fait là pour vérifier que le raisonnement mathématique est correct, et que le lot d’hypothèse initial est standard. Elle ne permet jamais de dire que les hypothèses sont bonnes ou mauvaises, mais que ce sont les hypothèses habituelles de la revue. Or la validité du résultat dépend de la véracité des hypothèses ; on en déduit immédiatement les limites de ces publications…
Ce constat est malheureusement vrai, même dans le cas où ce travail s’appuie sur des données empiriques contrôlées, et même quand la revue est parmi les plus reconnues mondialement. D’une part, l’économie restera toujours une discipline humaine, où les valeurs et les parti pris sont inévitables. D’autre part, les revues académiques sont généralement contrôlées par des écoles de pensée qui imposent des canons de publication, et où l’attention est plus portée au respect de ces canons et à l’orthodoxie qu’à la validitémaths25. Citons le témoignage de l’économiste Steve Keen à propos de Nordhaus :
Comme le sait tout universitaire, une fois que vous êtes publié dans un domaine, vous serez sélectionné par les éditeurs de revues comme évaluateur (reviewer) pour ce domaine. Ainsi, la relecture par les pairs, au lieu d’apporter un contrôle indépendant de l’exactitude de la recherche, peut permettre d'imposer une hégémonie. Étant l'un des premiers parmi les très rares économistes néoclassiques à travailler sur le changement climatique, et le premier à fournir des estimations empiriques des dommages causés à l'économie par le changement climatique, Nordhaus a été en mesure d'encadrer le débat et de jouer un rôle de gardien.
Enfin, il y a un biais qui ne peut être repéré que quand on fait partie du milieu de la recherche. Les économistes mathématiciens veulent briller auprès de leurs pairs. Très souvent, ils construisent leur modèle en le mettant intentionnellement entre deux zones : suffisamment complexe pour que la résolution du modèle puisse donner lieu à une publication (voire un Nobel !), mais pas trop complexe, ce qui le rendrait trop compliqué à résoudre (et ça serait un collègue mathématicien qui recevrait le mérite du papier). De ce fait, ces économistes ne construisent pas un modèle qui décrit le réel, mais un modèle sympa, beau, intéressant qui, au passage, décrit peut-être un peu le réel (qui est souvent bien plus simple, ou bien plus compliqué que ce que laisse entendre le modèle).
À l’inverse, de nombreuses réflexions en économie sont utiles et profondes, mais elles ne sont pas publiées dans les revues les plus réputées (souvent parce qu’elles ne rentrent pas dans les canons). Qu’on pense tout simplement au fait mis en évidence par les économistes Nicholas Stern et Andrew Oswald en 2019maths27 : dans les quelques 77 000 articles publiés par les 10 revues économiques les plus influentes de la discipline, seulement une soixantaine traitaient du climat. De ce simple fait, tous les travaux sur ces questions (et ils sont innombrables, voir par exemple ceux que publie la revue Ecological economics) ne sont pas publiés dans ces revues.
Cela signifie que, contrairement aux sciences physiques où la hiérarchie donne une indication de la qualité probable des travaux (sans, bien sûr, être un critère absolu), la hiérarchie des revues en économie ne l’indique tout simplement pas.
3.3. La confusion entre contenu positif et contenu normatif
Comme nous l'avons mentionné dans la partie 2.1, Léon Walras, l’un des pères de l’économie mathématique, pensait que la science économique avait pour but de rapprocher la réalité d’un certain idéal. Alors que les sciences expérimentales ont pour but premier de comprendre la réalité telle qu’elle est (on dit que ce sont des disciplines positives), il fait de l’économie une discipline normative.
Les conseillers économiques écoutés par les politiques ont même une action performative.
Les résultats des économistes sont performatifs, c’est-à-dire que leurs prescriptions modifient, à travers les politiques économiques, les phénomènes qu’ils observent. "Alors que les lois de Newton n’ont rien changé à la gravitation"maths28
Les implications de cette vision de la science économique sont profondes.
Prenons l’exemple le plus frappant : comme en théorie – et sous condition de nombreuses hypothèses – les marchés en concurrence pure et parfaite (l’idéal de Walras) permettent d’aboutir à un équilibre optimal, une politique économique doit faire en sorte que le réel s’aligne sur les hypothèses du modèle et non l’inverse. Il s’agit, par exemple, de limiter les rigidités du marché du travail (c’est-à-dire les réglementations administratives) pour s’approcher, dans ce domaine, de la concurrence pure et parfaite ; ou de compléter les marchés financiers en incitant à la création de nouveaux produits (en général des produits dérivésficheproduitsderives).
Les cours d’économie enseignent de nombreuses règles à appliquer pour fonder des politiques économiques. Ce n’est, bien sûr, pas critiquable en soi. Le monde économique est complexe, les décisions à prendre sont difficiles, et l’application de règles aide les décideurs. Ces règles s’appuient souvent sur un modèle mathématique qui leur donne un supplément d’autorité. Insidieusement, la mathématisation fait passer l’économie d’un mode positif ou explicatif à un mode normatif et la règle s’impose comme étant une vérité.
Prenons quelques exemples. Selon la règle de Hotellingfichehotelling, le prix d’une ressource non renouvelable croît exponentiellement à un taux égal au taux d’intérêt, ce qui rend cette ressource inépuisable (les prix atteignant des niveaux tels que sa consommation devient impossible). On pourrait en conclure que les ressources non renouvelables ne s’épuisent pas. Mais la démonstration par l’économiste Hotelling repose sur nombre d’hypothèses non vérifiées dans les faits ; Ivar Ekeland et ses coauteursmaths30 ont montré que la conclusion ne tenait plus dès qu’une des hypothèses était remplacée par une autre, plus réaliste.
La règle de Ramsey fournit un cadre pour déterminer le taux d’actualisation publicficheactualisation à utiliser dans les analyses socio-économiques (ce qui permet d’éclairer la décision publique relative à la pertinence d’un investissement public). Cette règle repose sur une modélisation nécessairement très sommaire de l’économie. Elle est quand même utilisée comme si elle allait de soi, du fait de la réputation de l’auteur et de son modèle.
Citons, sans les détailler, la règle de Taylor pour la conduite de la politique monétaire par les banques centrales, ou la règle d’or de Phelps qui conduit à fixer le taux d’intérêt au niveau du taux de croissance démographique.
3.4. La formalisation mathématique peut cacher la fragilité des données empiriques
Les modèles mathématiques sont des abstractions. Comme on l’a vu, il est possible d’en contrôler la validité en les confrontant aux données réelles.
Cependant, il est important de noter, car c’est un problème très général, que les données économiques sont construites socialement. Comme nous l’avons écrit avec Gaël Giraud, dans une note sur les modèles économiques et climatiquesmaths31 : « Ces données sont dès lors dépendantes des performances d’institutions, parfois très faibles dans certains pays. Les pays en voie de développement qui manquent de ressources humaines ont un appareil statistique parfois très insuffisant et hétérogène. Les pays à pouvoir politique "fort" peuvent produire des données statistiques discutables et discutées, du fait d’un manque de transparence de leur production et d’un doute sur l’influence du pouvoir sur ces données. Même dans des pays démocratiques et bien organisés administrativement, les données posent de sérieux problèmes de méthode. Qu’on pense par exemple à l’inflation (au sens de hausse des prix à la consommation). Cet indicateur est construit à partir de données statistiques retraitées pour tenir compte de l’évolution qualitative des produits (passage du yaourt nature au yaourt aux fruits ?), ce qui pose de redoutables questions méthodologiques. La prise en compte du coût des logements (pour les propriétaires occupants) pose aussi de gros problèmes méthodologiques. On évoquera [aussi] la question, essentielle dans les modèles de croissance, de la définition et la mesure du capital, et de sa dépréciation et, par ailleurs, celle du chômage. On peut également mentionner toute l’économie "parallèle" qui échappe aux statistiques officielles, même si des études permettent de faire des estimations et que l’institut Eurostat va même jusqu'à recommander qu’elle soit intégrée dans les comptes nationauxmaths32, ce que la France a refusé de faire. »
Il est donc important de s’assurer, dans des conclusions tirées de travaux mathématiques appuyés par des données chiffrées, que les conséquences possibles d’erreurs ou d’incertitudes sur les données sont bien prises en considération.
L’aide à la décision pour les pouvoirs publics
L’économie (comme discipline) a pour vocation de comprendre le monde économique et d’aider les pouvoirs publics à prendre les décisions les plus adaptées en fonction des objectifs qu’ils se donnent - ou qui leur sont donnés.
On doit à l’économiste John Maynard Keynes d’avoir fait prendre conscience que les pouvoirs publics ont à intervenir dans l’économie. Ce n’était pas une évidence avant la crise de 1929. La pensée dominante reposait plutôt sur l’idée que le rôle de la puissance publique était, avant tout, de donner toute leur place et liberté de manœuvre aux acteurs privés coordonnés par les marchés. C’est d’ailleurs pour cela que la démonstration de la Théorie de l’équilibre général a été si importante : elle a donné un lustre scientifique à l’opinion selon laquelle le laisser-faire était la voie royale du progrès économique.
Dès lors que cette conception s’est heurtée à la réalité, la question posée aux économistes s’est transformée : les économistes se sont demandés quelles étaient les modalités les plus adaptées d’intervention de l’État. Nous allons évoquer dans la suite quelques exemples de l’usage des mathématiques dans les instruments visant à aider la puissance publique, dans ses différents rôles.
4.1. La prévision économique et les modèles budgétaires ; l’anticipation et les modèles macroéconomiques
L’intervention économique de l’État (en nature et en intensité) dépend au premier ordre de sa connaissance de l’activité économique. Les économistes et les statisticiens publics ont donc développé des outils de mesure de cette activité, le PIB et, plus généralement, toute la comptabilité nationale. Ces instruments permettent de caractériser l’état de santé de l’économie (en fonction des critères supposés permettre de juger de cette santé, le choix de ces critères étant évidemment discutable).
Les principaux modèles économiques utilisés
Les économistes développent aussi des modèles mathématiques permettant d’élaborer des prévisions macroéconomiques de court terme, comme le modèle Mésange et le modèle Opale (accompagné d’un ensemble d’outils appelé Tresthor). Ces modèles visent à prévoir le niveau de l’activité économique, ainsi qu’à calculer les dépenses publiques et les rentrées fiscales, en fonction des décisions prises. Certains modèles sont plus spécialisés : citons le modèle Inès, utilisé pour mesurer l'impact des réformes fiscales, le modèle Destinie, dont les principales applications concernent les retraites, ou encore le modèle Saphir, qui décrit l'impact des prestations sociales et des impôts sur les revenus des ménages.
La puissance publique, incarnée par différentes institutions (la Commission européenne, les ministères des finances, les instituts statistiques tel l’INSEE en France, les banques centrales, les agences publiques comme l’ADEME en France,…), développe ou fait développer des modèles économiques pour tenter d’anticiper l’avenir de moyen et long terme. Dans le domaine de la transition énergétique et écologique, ces travaux sont utilisés pour améliorer les politiques publiques dans leur ensemble. Le Green Deal et le Fit 55 européens se sont construits en utilisant des modèles comme Quest au plan macroéconomique et Primes au plan énergétique.
Le Réseau des banques centrales et superviseurs pour le verdissement du système financier (le NGFS), dont le secrétariat est assuré par la Banque de France, a recours à toute une gamme de modèles, dont le modèle macroéconomique NIGEM pour évaluer la résistance des bilans bancaires aux effets du changement climatique.
L’administration française utilise des modèles comme ThreeMe, mis au point par l’ADEME et l’OFCE, pour évaluer l’impact économique de la Stratégie Nationale Bas-Carbone (SNBC), et le modèle POLES pour construire la Programmation Pluriannuelle de l’Énergie.
Le GIEC, au sein du groupe III qui étudie les politiques publiques et actions privées à mettre en œuvre pour atténuer le changement climatique, synthétise les simulations économiques faites par de multiples modèles développésmaths33 dans de nombreux laboratoires d’économie dans le monde. La majorité sont des modèles dits « intégrés », les IAMmaths34, qui tentent de représenter l’économie et ses liens avec le climat. Ces travaux visent à répondre à la question des impacts réciproques du climat et de l’économie, avec une priorité de fait apportée au lien économie vers climat.
Sans entrer dans une analyse critique exhaustive de tous ces différents types de modèlesmaths31, soulignons quelques points d’attention.
Ces modèles ne reposent pas sur des lois physiques bien établies par ailleurs. Ils intègrent tous des théories et équations de comportement des agents économiques discutables et discutées. Ils sont, en outre, incapables de tenir compte d’événements extra-économiques (tels la pandémie de Covid, la guerre d’Ukraine, ou les événements climatiques extrêmes comme la sécheresse historique en Espagne en 2023). Enfin, le secteur financier peut engendrer des crises endogènes (c’est-à-dire issues des comportements de ses acteurs et non d’un événement extérieur) qui sont aussi extrêmement mal appréhendées par les modèles les plus utilisésmaths35.
Ces modèles peuvent ne pas représenter des pans entiers de la vie économique , évidemment pertinents en réalité. La très grande majorité des modèles visant à réalisant des prévisions macroéconomiques de court terme ne tiennent compte ni des ressources naturelles ni des pollutions. Ils ne représentent ni le crédit ni la monnaie. Plus généralement, de tels modèles ont nécessairement des partis pris qui ne sont pas toujours explicites. Leurs résultats sont très sensibles à ces partis pris.
Les modèles qui espèrent représenter la réalité économique (plus exactement l’ensemble de données empiriques supposées représenter cette réalité) sont en général faits de façon à coller avec des données observées sur quelques années passées. Pour y arriver, les modélisateurs calibrent les équations du modèlemaths31, c'est-à-dire qu’ils donnent aux paramètres des valeurs qui conduisent au meilleur ajustement possible entre le comportement du modèle et les données empiriques. Le fait que les modèles collent avec les données empiriques sur les années passées n’est pas une preuve de leur capacité à le faire à l’avenir, ce que l’on peut visualiser à l’aide de l’analogie suivante. Essayons de représenter la série des victoires et des défaites d’un joueur de tennis lors de ses dix derniers matches par un jet de pièces. Si on prend suffisamment de pièces et qu’on les tire à pile ou face 10 fois de suite, on finira par avoir une pièce qui aura fait pile pour chaque match gagné par ce joueur et face pour ses matchs perdus. Pourtant, cette pièce n’a aucun pouvoir prédictif sur le prochain match du joueur.
4.2. La construction et la comparaison d’instruments de régulation
L’analyse économique formalisée peut aussi être utilisée pour mettre en place des régulations, voire pour comparer leur efficacité relative. Prenons l’exemple des politiques de réduction des pollutions.
On doit à l’économiste Arthur Pigou l’idée d’introduire une taxe environnementale, selon ce qu’on appelle aujourd'hui le principe pollueur-payeur. Faire supporter le coût de la pollution, via une taxe fonction de la quantité de polluants émis, à celui qui en est à l’origine l’incite à la réduire, ce qui n’est pas le cas s’il ne le supporte pas (c’est le cas par exemple d’une usine qui émet des effluents polluants dans une rivière en aval ou dans l’air).
Dans les années 1960, l’économiste John A. Dales, s’inscrivant dans la lignée les travaux théoriques du prix Nobel Ronald Coasemathscoase, propose quant à lui de faire appel au marchémaths36. Il préconise l’attribution par l’État de droits à polluer et expose un théorèmemaths37 selon lequel ce mécanisme aboutit à une allocation optimale, quelle que soit l’attribution initiale de ces droits. De cette approche sont nés les marchés de quotas (de SO2 aux USA puis de CO2 en Europemaths38).
Une abondante littérature économique a cherché à comparer les mérites respectifs de la taxe carbone et du marché de quotas en termes d’efficacité et/ou d’équité. Des modélisations sont parfois utiliséesmaths39 ; d’autres fois ce sont des analyses quantitatives empiriquesmaths40. Il est assez clair dans ce cas, que les analyses conceptuelles ou empiriques sont sujettes à caution : on manque de recul pour évaluer les effets des instruments, qui dépendent en outre de nombreux facteurs institutionnels contextuels et comportementaux. Cela n’a pas empêché Jean Tirole, prix Nobel d’économie, d’écrire en 2009 dans un important rapport du Conseil d’analyse économique, Politique climatique : une nouvelle architecture internationale : En collaboration avec Jean-Jacques Laffont, je m’étais penché sur ce problème, et avais examiné la politique publique optimale. Nous en avions conclu que l’optimum social consiste à émettre des droits d’émission négociables […]. L’article en questionmaths41, publié en 1984, repose sur un modèle mathématique, sans aucun doute bien construit, mais la prétention à en conclure ce qui est socialement optimal laisse songeur et nous conduit à insister sur l’idée que ces modèles peuvent, au mieux, aider à comprendre des mécanismes, à mettre en évidence certaines de leurs propriétés, à les comparer, mais, en aucun cas, ils ne permettent de conclure au caractère socialement optimal de l’un d’entre eux.
Conclusion
Recourir aux mathématiques en économie a une utilité, que nous espérons avoir montrée, en termes pédagogiques, théoriques et de contrôle minimum d’énoncés théoriques. La plus grande prudence s’impose cependant quand cet usage devient abusif, en oubliant ses limites et conditions de validité.
Fiches en lien
Merci de nous avoir lus jusqu'au bout !
Si vous appréciez le contenu de The Other Economy, inscrivez-vous à notre newsletter.
Vos données ne seront jamais ni données, ni prêtées, ni vendues à des tiers
Les premières tentatives de formalisation mathématique de l’économie sont dues à Léon Walras dans son livre Éléments d’Économie politique pure (1874) et utilisent des méthodes linéaires très simples. Depuis, de nombreux champs mathématiques sont utilisés en économie : théorie des jeux, calcul différentiel et optimisation, calcul intégral, calcul matriciel, probabilités, statistiques, séries temporelles et économétrie, calcul numérique et algorithmes…
Une variable est dite d’intérêt lorsque c’est la variable (ou une des variables) qui fait l’objet de l’étude. Elles sont aussi appelées variables de réponse.
Un paramètre est une valeur numérique qui n’est pas calculée par le modèle et qui n’est pas une variable d’entrée mesurée ou observée. Ce paramètre peut être évalué sur la base d’études théoriques ou sur une base empirique.
Voir par exemple la page "Qu’est-ce que la modélisation d’optimisation ?" sur le site d'IBM : l’exemple d’optimisation donné dans ce site est celui d’un problème classique de livraisons de colis. Il s’agit de minimiser la consommation de carburant en livrant des colis à divers clients dans une ville. Chercher ce minimum est une optimisation. Et pour y arriver, il est utile de modéliser mathématiquement les trajets possibles et la consommation entre chaque point de livraison. Le site donne d’autres exemples d’optimisation dans différents secteurs.
On doit au philosophe Karl Popper l’introduction du critère de réfutabilité comme moyen de démarcation entre les sciences et les autre disciplines intellectuelles. Cette idée a fait couler beaucoup d’encre. Au sens de Popper ce critère est en effet très exigeant (voir la présentation de ce critère et le débat qui en est résulté sur Wikipedia. Nous ne rentrerons pas ici dans cette discussion. La définition retenue ici de la réfutabilité est moins forte que celle de Popper.
Nous ne visons évidemment pas ici l’exhaustivité. L’économie est riche de règles et de lois discutables et pourtant toujours enseignées, voire appliquées, et souvent pensées comme étant vraies (règle de Taylor, de Ramsey, de Phelps…, loi d’Okun, loi de Say…).
En économie, l'efficacité signifie généralement la meilleure allocation des ressources (capital et travail), c'est-à-dire celle qui permet la production maximale.
Voici ce qu’écrit l’économiste Pierre-Noël Giraud : Suivant en cela Ricardo, je considère que l’objet central de l’économie est l’inégalité des revenus et plus généralement d’accès aux biens de ce monde, et non pas la croissance dont la mesure est par ailleurs difficile et à juste titre controversée. (L’homme inutile ; du bon usage de l’économie, Pierre-Noël Giraud, Odile Jacob, 2015).
Un marché est dit complet s’il permet de faire émerger un prix unique pour chaque bien (défini de manière détaillée), présent et futur. Qui sait quel sera le prix du croissant beurre en 2045 ? Cette hypothèse de complétude des marchés n’est, bien sûr, jamais satisfaite. Voir Gaël Giraud, Illusion financière, Éd de l’Atelier, 2014.
Il faut en effet savoir que, même dans les études empiriques, les revues ne vérifient jamais les données ou le code qui produit les analyses (ce qui explique en partie que l’erreur faite par Reinhart et Rogoff, que nous mentionnons au paragraphe 2.1, n’ait pas été détectée par la revue).
La base de données de scénarios utilisée pour le sixième rapport de synthèse du GIEC (2022) inclut 188 modèles. Voir la page AR6 Scenario Explorer and Database sur le site de l’International Institute for Applied Systems Analysis (IIASA).
En particulier, les modèles d’équilibre général sont conceptuellement incapables de rendre compte d’une crise économique endogène, puisque leur cœur est le retour automatique à l’équilibre. En outre, la majorité d’entre eux ne représentent pas la sphère monétaire ni le crédit.
Ce théorème n’a jamais été démontré formellement et a fait l’objet d’une importante littérature critique faisant parfois appel à un appareil mathématique.
Si vous appréciez le contenu de The Other Economy, inscrivez-vous à notre newsletter.
Vos données ne seront jamais ni données, ni prêtées, ni vendues à des tiers.