Introduction
L’activité économique (achat, production, distribution, vente, consommation, gestion des déchets) se fait en large partie par des transactions monétaires, où le bien ou le service vendu et acheté l’est à un prix accepté par l’acheteur et le vendeur. Nous allons ici nous intéresser au fonctionnement des marchés, qui permettent ces transactions et la fixation des prix. Nous exposerons aussi les propriétés et limites des marchés ainsi que le rôle de la puissance publique dans leur apparition et leur régulation.
La capacité des marchés à fixer des prix et le rôle de ces prix dans la marche des affaires en est une propriété remarquable. Mais la main invisible n’existe pas, et il est dangereux de prêter au marché des propriétés magiques.
- L’intervention de la puissance publique pour réguler les marchés est légitime et nécessaire.
- Les prix (éventuellement issus d’une monétarisation construite par la puissance publique
note4 ) ne peuvent pas être les seuls signauxnote5 et les seules contraintes envisagées pour modifier les comportements et faire évoluer la société. Le rôle de la loi, des règlements, de la morale et du sens des responsabilités envers les autres humains et la société ne peut être oublié. - Les travaux sur les entreprises et les biens communs, montrent que d’autres arrangements institutionnels alternatifs ou complémentaires sont nécessaires à tous les niveaux.
Ce module a bénéficié de la relecture et des commentaires de Florence Al Talabani et Yannick Saleman.
L'essentiel
Tout ce que vous avez toujours voulu savoir sur les marchés !
Inscrivez-vous à notre webinaire pour explorer le contenu de ce module avec Alain Grandjean, président de The Other Economy et co-auteur, le jeudi 22 mai à 8h30.
Quelques notions essentielles pour comprendre le(s) marché(s)
1.1 Quelques définitions
Dans ce module, nous traiterons le marché dans trois perspectives différentes qu’il est bon de garder en tête. L’une est empirique et met la focale sur l’organisation et le cadre réglementaire des marchés tels qu’ils se présentent dans la réalité. Ces organisations ont un point en commun : elles permettent à un vendeur ou à un acheteur d’identifier des contreparties à la transaction souhaitée, tout en disposant d’informations sur les conditions de transaction similaires, en particulier les prix. La deuxième perspective est celle de la discipline économique, pour laquelle le marché est un objet d’analyse et de théorisation privilégié, avec des divergences importantes entre les écoles de pensée. La troisième est le marché comme principe politique, devenu dominant depuis le début des années 90, ordonnant le système économique par opposition à des économies centralisées et/ou dirigées. Commençons donc par quelques définitions.
1.1.1 Les marchés, au sens empirique
Au plan empirique, le terme marché peut désigner :
- un lieu d’échanges physique (comme les marchés traditionnels où se vendent et s’achètent des produits alimentaires et autres) ou virtuel (comme les bourses d’actions).
- l'ensemble des échanges concernant un secteur de l’économie (marché de l’immobilier, marché du blé…).
- l’ensemble des échanges concernant une région (marché chinois).
Nous verrons plus loin que le fonctionnement de ces marchés empiriques n’est pas spontané, mais nécessite l’intervention de la puissance publique (en termes de droit de la propriété, de droit de la concurrence notamment), et nous verrons comment les économistes ont essayé et essaient de comprendre ce fonctionnement.
1.1.2 Les marchés au sens économique : la théorie libérale est aujourd’hui dominante
Cette conception repose sur une vision idéalisée du marché et pousse à son extension à tous les secteurs de la vie.
Depuis le début des années 1980, les discours et la pratique politiques, soutenus par les thèses d’économistes libéraux comme Friedrich A. Hayek
Le producteur (agriculteur, industriel, société de services) est motivé pour obtenir des informations aussi précises que possible sur les besoins de ses clients, leur consentement à payer, ainsi que sur ses propres coûts et leur structure (coûts fixes, coûts variables), ses méthodes de production. Il peut agir pour améliorer le service à ses clients, innover, produire autrement etc. Le consommateur fait ses choix d’achat en fonction de ses désirs, son budget etc. Hayek a insisté sur le fait qu’une administration ne peut avoir la capacité d’accéder à toutes ces informations et de les traiter correctement. Il en déduit un plaidoyer unilatéral sur le marché comme l’institution la plus efficace.
Pour autant, ni le marché ni l’administration ni personne ne peuvent disposer de toutes les bonnes informations au bon moment. Et, plus précisément, les informations peuvent être inégales entre vendeur et acquéreur, ce qui est une des justifications d’une intervention des pouvoirs publics ou du recours à d’autres modes de coordination. Nous y revenons dans l’Essentiel 3.1, sur le fonctionnement des marchés.
1.1.3 Le principe du marché et de la concurrence comme vision politique
Le marché n’est pas qu’une réalité empirique ou à l’inverse un objet d’étude académique. C’est aussi une vision politique et parfois l’objet d’une croyance quasi-religieuse.
Dès le 18e siècle, les économistes participent de manière active et efficace à des débats majeurs (Thomas Malthus dans le débat relatif aux lois sur les pauvres ou David Ricardo dans celui relatif au libre-échange) qui ont des impacts politiques considérables. Le libre-échange poussé par David Ricardo
Ce caractère politique se manifeste à l’inverse dans les œuvres de Karl Marx et de ses successeurs, et dans la reprise en main par le pouvoir politique des leviers économiques, dans la vision communiste installée en Russie à partir de 1917 puis en Chine avec Mao.
L’ampleur de la crise de 1929 (voir Essentiel 5.2) est en partie due à la croyance, évoquée ci-dessus, en la capacité des marchés à retrouver leur équilibre par eux-mêmes. Les autorités ont pensé pendant des mois, et ce en dépit de la crise économique majeure qui s’amplifiait sous leurs yeux, qu’il fallait » laisser faire , laisser passer».
Après la deuxième guerre mondiale, la création du GATT puis de l’OMC, en parallèle de la mise en œuvre du marché commun puis unique en Europe, font du libre-échange (donc de la généralisation du marché) l’idéal économique vers lequel aller. C’est évidemment un choix politique, il y a bien des alternatives entre libre-échange généralisé et protectionnisme unilatéral.
Depuis, au sein des différents pays (en Europe et en France, mais partout dans le monde sauf dans les pays communistes), les principaux partis politiques se positionnent sur ce qui doit être de l’ordre du marché et ce qui doit ne pas l’être. La ligne de partage n’est pas technique mais bien idéologique, avec des partis soutenant une libéralisation et une privatisation maximales, alors que d’autres souhaitent une planification et nationalisation de certaines entreprises, y compris dans le domaine du crédit.
En France, le Commissariat Général au Plan, pour l'économie, et la DATAR,
Notons une innovation organisationnelle française, la création d’un Secrétariat général à la planification écologique en 2022. Cet organisme a tout son sens, comme nous le montrons dans ce module : le marché ne peut pas à lui seul tenir compte de la Nature. L’histoire montrera si cette innovation résistera au temps. Mais le débat autour de ce type de structure est bien politique : la notion de planification écologique a été lancée par Jean-Luc Mélenchon et le parti le Front de Gauche dans les années 2010,
Plus récemment, les libertariens
1.2 Les échanges structurent l’économie
Chaque jour, des milliards de personnes, d’entreprises, d’associations et d’administrations publiques utilisent une forme particulière de transactions, les échanges monétaires, qu’ils décident de façon autonome.
Pris ensemble, ces échanges forment le flux continu de biens et services entre producteurs et/ou extracteurs de ressources naturelles, et entre ceux-ci et consommateurs. Ils déterminent la distribution primaire des revenus.
1.3 Des marchés sont indispensables pour organiser les échanges
Les marchés permettent ces échanges, régularisent les flux et contribuent à l’intégration et à la mise en cohérence des différents secteurs de l’économie. Sans marché organisé, les transactions dépendraient de rencontres aléatoires. Acquéreurs ou vendeurs n’auraient pas la possibilité de prévoir et planifier les transactions nécessaires à leur activité, production, vente ou consommation. Ils devraient discuter du prix et négocier en permanence (ce qui se fait dans certains marchés traditionnels, mais plus dans les économies modernes, notamment pour des raisons juridiques).
Notons que les marchés, tout comme le commerce, sont nés bien avant le début du premier millénaire avant J.C. et ailleurs qu’en Europe.
Quant à l’environnement, il n’était pas plus pris en considération
1.4 L’État décide de ce qui relève du marché
En réalité, dans aucun pays, les transactions ne sont toutes monétaires ni ne se font toutes sur des marchés ou bourses établis. Les transactions non marchandes peuvent relever du don interpersonnel
1.5 Les activités non marchandes sont aussi substantielles
Par ailleurs, les activités non marchandes (sans rémunération monétaire) sont nombreuses et importantes socialement et économiquement : le travail domestique (cuisine, bricolage, éducation), les activités bénévoles (associations caritatives, sportives, ludiques, etc.), les tâches effectuées sans réelle contrepartie rémunérée (par sens du service, du devoir, par dignité …). Elles représentent une part importante de l’activité d’un pays. Selon une étude de l’OCDE un peu ancienne mais révélatrice, le travail non rémunéré équivaudrait à un tiers du PIB
Le partage entre la sphère marchande et non-marchande est variable dans le temps et d’un pays à l’autre, en fonction des évolutions culturelles et idéologiques, des technologies et opportunités économiques et de l’issue des conflits sociaux et politiques.
1.6 Les mécanismes de marché amènent informations et innovations et facilitent la rencontre de l’offre et de la demande
Un marché permet d’aider les entreprises offreuses (par la connaissance des historiques de ventes) à connaître les consentements à payer de ses clients et prospects, pour quels produits et services, et d’anticiper les innovations à envisager. Pour les consommateurs (citoyens ou entreprises), le marché permet de connaître les offres qui leur permettraient de satisfaire leurs besoins ou leurs désirs. Bref le marché permet un rapprochement (si ce n’est une égalité) entre l’offre et la demande.
Le prix est une information qui est évidemment déterminante, pour l’acheteur comme pour le vendeur : c’est une information qu’ils connaissent nécessairement, contrairement à d’autres qui peuvent être cachées volontairement ou simplement non divulguées. Ils lui portent donc nécessairement une attention toute spéciale. Il est légitime, du point de vue de la théorie économique, de porter une considération spécifique au rôle de cette information dans la décision économique. Toutefois, une décision éclairée suppose une connaissance des propriétés du produit acheté, durabilité, impact potentiel sur la santé et l’environnement, entre autres. Il existe en outre des attentes croissantes sur la traçabilité de l’origine des produits (qui peuvent de plus en plus être satisfaites par divers procédés numériques). Des dispositifs légaux sont nécessaires pour inciter les entreprises à fournir ces informations et permettre, le cas échéant, des recours devant les tribunaux en cas de désinformation.
L’aiguillon de la concurrence a un effet positif pour le consommateur -et plus généralement l’acquéreur- qui peut comparer des produits et leur rapport qualité-prix. Il n’est pas en situation de dépendance d’un seul fournisseur ou prestataire. C’est aussi une source d’innovation.
1.7 Comment (et qui peut) réguler les prix du marché ?
Les informations décentralisées et relatives à des millions d’agents économiques que traitent les marchés ne peuvent être connues d’une autorité administrative dont la capacité à fixer un prix est limitée. Mais la concurrence n’est pas un régime qui s’impose et se stabilise spontanément sans intervention d’un pouvoir régulateur. Et la puissance publique intervient directement dans certains cas pour corriger des effets non souhaités de la libre fixation des prix et de la concurrence, comme en France pour le prix de tous les livres, ou dans de nombreux pays pour certains loyers. Et comme cela se peut se produire en cas de crise sur des produits de première nécessité comme l’énergie
Le pouvoir des consommateurs (le concept de consom’acteur) est un pouvoir décentralisé qui est une condition importante de la liberté de choix. Il permet en principe au consommateur de choisir, dans la limite de ses moyens et au vu des prix relatifs, ce qui lui semble le plus utile. En achetant, le consommateur peut influencer la vie économique. Ce pouvoir a cependant des limites, et il serait naïf de croire qu’il suffit à régenter la vie économique. Les entreprises influencent les choix des consommateurs par des campagnes publicitaires
1.8 La liberté d’entreprendre est une liberté politique essentielle
Pouvoir travailler contre une rémunération décente ou entreprendre librement (sous réserve du respect de règles sociales et environnementales) et dès lors pouvoir ainsi gagner sa vie, est une liberté fondamentale. La privation de cette liberté conduit à une dépendance économique politiquement dangereuse si elle se généralise. Inversement, veiller à ce que chacun puisse développer des capacités qui lui soient utiles et vivre décemment est un devoir de justice de toute société et un gage d’une cohésion durable de cette dernière. La liberté d’entreprendre ne doit donc pas être confondue avec l’obligation de le faire pour vivre, voire survivre. Les négociations collectives et le droit du travail sont nécessaires pour compenser l’inégalité de fait entre salariés et l’entreprise et ne pas laisser les conditions du contrat de travail dépendre de la seule négociation individuelle. Adam Smith lui-même n’était pas dupe de cette asymétrie. Dans la Richesse des Nations, le livre fondateur du mythe de la main invisible
Nous verrons à l’Essentiel 8 combien la construction du marché européen a été, et est toujours, très régulée, avec un très haut niveau d’intervention des administrations européennes et nationales travaillant en liaison étroite avec les associations professionnelles.
Pour en savoir plus
Équilibre des marchés : un mythe à la vie dure malgré les faits
2.1 La fameuse loi de l’offre et de la demande : la réduction des marchés au couple quantité / prix
Dans ce chapitre, nous nous intéressons à une vision particulière des marchés, la vision dite néoclassique (voir encadré) qui met en avant le prix et le rôle qu’il joue pour relier offre et demande. Nous verrons d’autres approches dans l’Essentiel 5. Mais cette vision dominante, enseignée dans tous les cours d’économie, mérite un focus particulier. L’idée de départ est que, sur un marché donné, le prix d’un produit se forme par confrontation d’une offre et d’une demande. Les quantités offertes augmentent avec le prix, celles demandées diminuent et il existe des prix d’équilibre égalisant offre et demande sur tous les marchés. À ces prix, chaque vendeur et chaque acquéreur est satisfait car il trouve une contrepartie qui lui convient.
Qu’est-ce que la théorie néoclassique en économie ? Présentation synthétique
L'économie néoclassique est un courant de pensée fondé au 19e siècle par les économistes Léon Walras, William Stanley Jevons, Carl Menger, Alfred Marshall, et largement dominant dans la pensée économique contemporaine. Elle repose sur plusieurs concepts clés de base :
- La rationalité des agents économiques
ficherationalite : les individus sont considérés comme des acteurs rationnels qui cherchent à maximiser leur satisfaction (appelée utilité par les économistes) assimilés à la consommation pour les individus et au profit pour les entreprises. - La place centrale des marchés comme institution de coordination des comportements individuels pour les faire converger vers une situation optimale : l'économie est vue comme un ensemble de marchés interconnectés, qui, grâce au prix tendent naturellement vers un équilibre où l'offre égale la demande.
- Le rôle des prix : les prix jouent un rôle central en tant que signaux permettant d’allouer efficacement les ressources dans l’économie.
- L’individualisme méthodologique : l’analyse part des comportements individuels pour expliquer les phénomènes économiques globaux. Elle ne considère pas les institutions comme des acteurs en tant que tels.
Enfin mentionnons le fait que l’école néoclassique repose dès son origine sur des mathématiques (l’utilité est une fonction,
Pour Friedrich A.Hayek, ce qui doit être enseigné est bien que les prix dégagés par la juste conduite des participants du marché – c’est-à-dire des prix concurrentiels, exempts de fraude, de monopole ou de violence – étaient tout ce que la justice demandait.
Dans cette vision, les producteurs produiraient au juste prix la juste quantité de produits, celle qui serait achetée à ce prix par les consommateurs. Il n’y aurait donc ni invendus ni pénurie. Les marchés s’équilibreraient donc spontanément, au sens où la confrontation décentralisée de l’offre et de la demande conduirait automatiquement à prix d’équilibre. La vision de l’équilibre du marché est interprétable dans deux sens différents et complémentaires dans la perspective des économistes néoclassiques.
Le premier sens est une hypothèse empirique. Il existe un mécanisme qui établit le prix d’équilibre sur les marchés. Le deuxième sens est normatif : lorsque toutes les transactions se font au prix d’équilibre, les transactions sont optimales au sens de Pareto : il est impossible d’améliorer la satisfaction d’un agent sans détériorer celle d’un autre.
2.1.1 La théorie néoclassique de la formation des prix
Intéressons-nous d’abord aux transactions sur un ou un nombre limité de marchés fortement interconnectés.
Les économistes néoclassiques ont développé l’idéal type du marché parfaitement concurrentiel en lui associant les attributs suivants :
- atomicité (aucun vendeur ou acheteur n’a une part de marché lui permettant d’influencer le prix) ;
- le marché est défini par un produit homogène dont les acheteurs connaissent les qualités aussi bien que les vendeurs ;
- il n’y a aucune restriction à l’entrée ou à la sortie du marché ce qui maintient la pression concurrentielle ;
- des acteurs rationnels (homo economicus)
ficherationalite utilisant logiquement les informations disponibles, maximisent leurs bénéfices et leur fonction d’utilité.ficheutilite
En l’absence d’acteurs dominants, Il faut y ajouter un mécanisme de formation du prix d’équilibre auquel toutes les transactions s’exécutent. Ce mécanisme suppose idéalement une communication parfaite, continue et sans coûts de tous les participants. Chaque acheteur potentiel connaît et choisit entre les offres de tous les vendeurs potentiels.
2.1.2 Le marché donnerait des prix optimaux : une certaine vision de l'optimum social
Qu’en est-il de l’évaluation normative de cet équilibre partiel ? Le prix d’équilibre correspond à une situation optimale selon Pareto dans le sens suivant : à ce prix, tous les gains d’échange sont réalisables et il n’est pas possible de réaliser d’autres échanges mutuellement avantageux. Par construction, ceci n’est pas vrai à un autre niveau de prix. Si le commissaire-priseur de Walras se trompe et annonce un prix supérieur (ou inférieur) au prix d’équilibre, des vendeurs (ou acheteurs) ne trouveront pas de contrepartie et certains seraient prêts à baisser (ou augmenter) leur prix pour réaliser un échange qui resterait mutuellement avantageux sans dommage pour les autres participants.
À la suite de Léon Walras, les économistes néo-classiques ont en outre exploré deux questions : la possibilité et l’unicité d’un équilibre généralisé, c’est-à-dire un équilibre où tous les marchés sont en équilibre concurrentiel comme décrit ci-dessus ; et celle de l’optimalité sociale d’un tel équilibre. Tout en continuant à laisser de côté la question de la formation effective des prix, Arrow et Debreu ainsi que McKenzie ont identifié en 1954 les conditions nécessaires à un tel équilibre, qui s’ajoutent à celles définissant un marché concurrentiel.
Une de ces conditions est celle de rendements d’échelle non-croissants dans la production.
2.1.3 Le fonctionnement des marchés dans la réalité : des mécanismes institutionnalisés
Revenons à l’hypothèse sur le fonctionnement des marchés. Il semble bien que les actes d’échange au niveau personnel ne créent des prix que s’ils ont lieu dans un système de marchés créateurs de prix, structure institutionnelle qui n’est en aucun cas engendrée par de simples actes fortuits d’échange.
Les historiens montrent que dès le 13e siècle, la création et la réglementation des marchés hebdomadaires en France étaient une prérogative royale.
![]()
Mais dans l'intérieur même de la cité, comment les citoyens se feront-ils part les uns aux autres des fruits de leur travail ? Car c'est dans ce but qu'on s'est associé et qu'on a formé un État. Il est évident que ce sera par vente et par achat. De là la nécessité d'un marché et d'une monnaie, signe de la valeur des objets échangés.
Les plateformes numériques et les réseaux sociaux créent des places de marché
Pour partie, les plateformes numériques grand public en réseaux
La réglementation des marchés, donc leur fonctionnement et les prix qui s’y forment, n’est en réalité jamais figée. Son évolution peut devenir nécessaire pour donner suite à l’émergence de nouveaux modèles d’affaires, de changements d’orientation politique ou de nouveaux objectifs de politique publique, comme la transition énergétique. C’est pourquoi, une question essentielle qui se pose toujours est qui fait les règles, pour qui, avec quels objectifs.
2.1.4 De multiples mécanismes de formation des prix co-existent dans notre société
Les mécanismes de formation des prix eux-mêmes prennent des formes variées, et le plus rarement celle du commissaire-priseur comme supposé par Léon Walras. Ces mécanismes sont le fruit de négociations entre les participants, en général inégaux. Ceci peut légitimer une intervention de la puissance publique pour valider les arrangements ou corriger des biais dans ces mécanismes. La multiplicité de ces derniers reflète l’hétérogénéité des participants et des produits.
Listons, outre les marchés en ligne déjà mentionnés :
- Les bourses, devenues électroniques, où s’exécutent en instantané des ordres d’achat et vente – parfois générés par des logiciels informatiques – pour des produits standardisés et dématérialisés (des actions, des obligations, des promesses de livraison de matières premières, …) ; le marché de gros de l’électricité et le marché ETS de quotas de CO2
note48 fichemarcheelectricite en aussi sont des exemples particuliers. - Les divers commerces de services et de biens de consommation ayant pignon sur rue ; en règle générale, ils fixent un prix non négociable, charge à l’acheteur de comparer entre différents commerces et au commerçant de l’ajuster en tenant compte de ses ventes. Mais il existe aussi des marchés sur lesquels la négociation est de mise.
- Les commerçants eux-mêmes lorsqu’ils sont petits peuvent être réduits à accepter les prix imposés par les grossistes ou les producteurs ou inversement, comme les chaînes de supermarchés, être en mesure de négocier leurs prix d’achat.
- Des criées et enchères pour des produits assez homogènes qui doivent être vendus rapidement (poissons, récoltes).
- Des enchères pour des œuvres d’art, des biens immobiliers ou pour des liquidations de stock dont le caractère est d’être unique même si en concurrence avec d’autres biens similaires.
- Des négociations bilatérales de contrat.
- Des négociations collectives (salaires, prix de produits agricoles entre agriculteurs, industriels et grande distribution).
- Des appels d'offres.
À cela s’ajoutent les interventions de la puissance publique. D’une part, en interdisant les ventes à perte, et d’autre part, en interdisant les ententes et en établissant les règles du jeu concurrentiel. Elle intervient parfois directement dans la formation des prix. Il peut s’agir :
- De décisions administratives de fixation ou d’encadrement des prix ; c’est encore le cas en France pour le tarif de l’électricité, de certains produits alimentaires (loi EGALIM) et de quelques loyers de logements soumis à la loi de 1948
note49 … mais il y en avait beaucoup après-guerre, qui a connu une période de rationnement. De même, suite à l’invasion de l’Ukraine par la Russie, plusieurs pays ont mis en place des actions modérant les hausses de prix de biens de première nécessité (énergie, alimentation), devenus inabordables pour une partie de la population et/ou des entreprises. - D’interdictions de certaines transactions, comme, toujours à la suite de la guerre d’Ukraine, l’achat de gaz russe, par exemple.
- De la fixation d’un salaire minimum.
- D’interventions économiques de la puissance publique dans un processus décentralisé (ex : le prix du livre en France est encadré par la loi Lang, et aucun libraire ne peut faire une ristourne de plus de 5% sur un livre neuf par rapport au prix affiché ; ce dispositif a sauvé les petites librairies de la concurrence des grandes enseignes).
- L’agriculture depuis l’après-guerre a été pilotée avec des interventions sur les prix et/ou sur les quantités produites.
fichepac
2.2 L’équilibre général : de la théorie à l’idéal normatif dominant
En réduisant l’analyse du marché à la relation prix/quantité et en la désencastrant du contexte institutionnel, les économistes néoclassiques réussissent cependant un coup idéologique de maître. Cette analyse permet de relier deux significations du mot économie, utilisation optimale des moyens pour parvenir à une fin, et organisation sociale empirique de la production, des échanges et de la consommation.
Le recours à la théorie des marchés concurrentiels permet de développer une vision d’ensemble du fonctionnement de l’économie, traduite par l’existence d’un équilibre général qui remplit en plus certains critères d’optimalité. Nous verrons cependant, dans l’Idée reçue n°2, que l’autorégulation des marchés et l’existence même d’un équilibre général dépend de nombreuses hypothèses cruciales, dont la levée remet fondamentalement en cause les conclusions.
Le marché n’en a pas moins acquis un rôle fondateur
La base idéologique et de philosophie politique d’une économie de marché est la représentation, très séduisante au premier abord, d’un système qui allie liberté individuelle maximale et efficacité (au sens de Pareto). Pour Milton Friedman, un des apôtres les plus fervents du néolibéralisme, le marché est LE mécanisme démocratique par excellence: Le principe politique sous-jacent au mécanisme de marché est l’unanimité. Dans un marché idéal libre reposant sur la propriété privée, aucun individu ne peut forcer un autre, toute coopération est volontaire, tous ceux qui coopèrent en bénéficient ou n’ont pas besoin de coopérer.
Cette approche évacue toutes les questions politiques, sociales et éthiques et traite la question des inégalités de revenus indépendamment du processus économique. Si le marché produit une distribution des revenus non souhaitable, une redistribution par l’impôt direct et des transferts peut intervenir, mais en veillant à ne pas toucher au mécanisme de prix et des salaires. Il est certes reconnu que le marché a besoin d’une institution tierce pour fonctionner, l’État. Mais le rôle de ce dernier se limite à sécuriser la propriété et l’exécution des contrats et à corriger les défaillances du marché
Bear and Bull, les deux principaux déséquilibres de marché
Un marché n’est, en pratique, jamais en équilibre au sens où toute l’offre souhaitée trouverait acheteur et inversement .
Un marché vendeur est dominé par les vendeurs : tous les produits offerts trouvent acheteur, ce sont donc les vendeurs qui sont en position de force. Pour un prix donné, la demande est supérieure à l'offre : la demande est donc rationnée, les vendeurs peuvent augmenter les prix, puisque la demande suivra. La demande excédentaire se réduira (jusqu'à s'annuler à l'équilibre, s’il se produit).
Un marché acheteur c’est l’inverse ; il est dominé par les acheteurs car l’offre est supérieure à la demande. L'offre est donc rationnée par la demande et les vendeurs doivent baisser leurs prix pour tenter de l’écouler (partiellement).
Dans le premier cas (marché vendeur ), les prix sont orientés à la hausse. À l’extrême, on observe une surchauffe voire une bulle. Dans le deuxième cas (marché acheteur), les prix sont orientés à la baisse ; à l’extrême on observe une dépression voire une récession ou une crise économique majeure, comme en 1929 ou en 2008.
Prenons deux exemples. Dans le secteur immobilier, une situation de marché acheteur se reconnaît au fait qu’il y a de nombreux biens en vente qui ne trouvent pas acheteur. Les prix sont orientés à la baisse. Concrètement, un propriétaire voulant vendre rapidement doit attendre ou baisser ses prétentions. Dans le cas du marché vendeur, c’est l’inverse : l’acheteur doit se dépêcher pour acheter, il y a peu de produits disponibles et les prix montent. Le vendeur peut attendre en espérant augmenter ainsi son prix de vente.
Dans le secteur financier, la Bourse est le lieu idéal d’observations de ce type de déséquilibres. Quand les cours montent car il y a plus d’achats que de ventes, situation de marché vendeur, la Bourse est euphorique. On peut assister à la formation d’une bulle. À l’inverse, quand l’anxiété gagne les marchés, ce sont les acheteurs qui dominent, les vendeurs ne trouvant pas à vendre tout ce qu’ils veulent vendre. Les cours baissent et, éventuellement, s’effondrent dans un crash.
On y parle de bear (l’ours, baissier) et de bull (le buffle haussier). Un bear market est dominé par des comportements baissiers. Un bull market est haussier.
2.3 La théorie de l’équilibre général : une illusion éloignée des faits
La théorie des marchés ne s’est cependant pas arrêtée avec l’identification abstraite d’un équilibre général concurrentiel. Les contributions ultérieures ont levé certaines des hypothèses faites dans la théorie mathématique initiale, et en ont étudié les conséquences. Nous reviendrons dans l’Essentiel 3 sur la régulation des marchés, sur quelques défaillances du marché et les solutions que l’on peut leur apporter. Contentons-nous de décrire ici quatre phénomènes qui remettent en cause l’existence d’un équilibre général dans des marchés à structure stable.
2.3.1 Offres et demandes effectives et notionnelles
Le premier repose sur la distinction entre une demande (ou offre) qui est effective et une demande notionnelle. En l’absence du commissaire-priseur walrasien, un vendeur peut ne pas trouver son acquéreur. Son offre notionnelle (celle qu’il était prêt à satisfaire si une demande équivalente s’exprimait) ne se réalisant pas, il reste avec un stock d’invendus qui contraint sa demande effective en deçà de sa demande notionnelle, c’est-à-dire celle correspondant à une situation dans laquelle il aurait réalisé la vente prévue. Un exemple typique est celui d’une situation où les chômeurs dépensent moins que s’ils étaient en activité, ce qui décourage les entreprises à produire plus.
Nous reviendrons plus en détail sur ce point majeur dans l’Essentiel 5. L’idée de la possibilité d’un équilibre général résultant du seul jeu de l’offre et de la demande repose sur la loi de Say, dite loi des débouchés.
2.3.2 Les phénomènes spéculatifs
Le deuxième repose sur un mécanisme de formation de prix entretenant des bulles spéculatives (voir encadré). C’est le cas lorsque les intervenants sur le marché agissent non pas selon une rationalité économique, mais sur ce qu’ils pensent que sera le comportement des autres intervenants. Ce genre de phénomènes émerge le plus souvent sur les marchés d’actifs financiers. Une réglementation financière est nécessaire pour en maîtriser les conséquences négatives (voir l’Idée reçue n°4 Les marchés financiers seraient efficients). Mais d’autres actifs comme les actifs immobiliers, voire des bulbes de tulipes comme en 1636-1637
Qu’est-ce qu’une bulle spéculative ?
La bulle spéculative désigne une situation où les prix d’un actif, comme des actions, des biens immobiliers, ou des matières premières, augmentent de manière excessive. Il arrive un moment où les acteurs, en général brutalement et de manière aussi moutonnière qu’ils étaient acheteurs, se mettent à vendre les actifs en question et font exploser la bulle : les prix chutent rapidement. C’est le célèbre cas de la crise de la tulipe. En 1635 il fallait 100 000 florins
C’est également le cas de la bulle internet à la fin des années 1990, où les actions des entreprises technologiques ont vu leur prix grimper de manière exagérée avant d'éclater en 2000. On peut aussi, bien sur, citer le cas de la bulle des subprimes
Le propre d’une bulle spéculative c’est qu’elle ne se caractérise clairement comme telle qu’après son éclatement. D’une part son éclatement est imprévisible et d’autre part des situations de fortes hausses du prix des actifs n’y conduisent pas toujours.
On considère souvent qu’une bulle se produit lorsqu'un grand nombre d'investisseurs achètent des actifs dans l'espoir que leurs prix continueront d'augmenter, sans tenir compte des facteurs économiques sous-jacents qui justifieraient une telle hausse. Mais cette explication repose sur l’idée qu’il existerait pour un actif donné une valeur fondamentale (en général calculée comme la somme actualisée
Dès lors, les prix des actifs sont la résultante de comportements d’achats et de ventes plus ou moins rationnels, qui tiennent plus ou moins compte des performances économiques des entreprises ou des actifs sous-jacents. Ils sont aussi soumis à des effets systémiques politiques ou autres. Les bulles spéculatives sont donc aussi difficiles à détecter qu’à éviter.
2.3.3 Les situations de monopoles naturels
Les monopoles dits naturels sont par exemple les réseaux (ferrés, routiers, électriques, d’eau, etc.) Pour l’opérateur du réseau, le coût marginal monétaire d’un utilisateur supplémentaire est nul ou très faible (un peu plus de maintenance). Mais les coûts fixes justifient de fixer un prix nettement supérieur au coût marginal. L’opérateur étant en situation de monopole, ce prix doit faire l’objet d’une réglementation lorsque le réseau n’est pas public.
Pour l’exemple de l'électricité, voir notre fiche sur l’ouverture à la concurrence du secteur électrique.
2.3.4 L’exemple des rendements croissants : l’écart entre la théorie et la réalité
L’hypothèse originelle de rendements d’échelle non-croissants
La notion de rendement décroissant se comprend intuitivement : il existerait un point au-delà duquel augmenter le nombre d’heures de travail, à nombre de machines constant, n’augmente pas proportionnellement la production. Le coût de la dernière unité produite est supérieure à celui des précédentes. Ou, dit autrement, la rentabilité de cette dernière unité est inférieure à celle des précédentes. David Ricardo a fait du rendement décroissant une loi économique en observant le cas de l’agriculture. Dans ce domaine à l’époque, en effet, les terres agricoles étaient mises en culture par ordre décroissant de rendements : les bonnes terres en premier, les mauvaises en dernier. C’est le cas aujourd’hui des gisements miniers pour une ressource énergétique ou minérale; mais comme nous allons le voir c’est loin d’être aujourd'hui un cas général.
Cette hypothèse centrale de coûts croissants de la dernière unité produite (donc de rendement décroissants) est indispensable dans l’établissement de la théorie d’équilibre général. En effet, les entreprises sont ainsi limitées dans leur production : il arrive un moment où elles n’ont pas intérêt à produire plus. Si la demande d’un produit augmente, elles peuvent en augmenter le prix -jusqu’à une certaine limite- ce qui fixe le prix. À l’inverse, si la demande baisse, elles peuvent baisser leur production sans pertes (puisqu’elles réduisent des productions marginalement moins rentables).
À l’inverse, , si -et tant que- le coût de la dernière unité produite reste égal ou inférieur à la précédente, l’entreprise a intérêt à augmenter ses ventes et sa production. Alors les entreprises les plus grandes, ou dont l’assise financière permet de grandir plus vite, peuvent mener une guerre des prix tout en couvrant leurs coûts fixes. Cette guerre ruine progressivement les entreprises plus petites. Des concentrations s’en suivent et le marché ne trouvera un nouvel équilibre qu’avec l’émergence d’oligopoles ou d’un monopole capables de contrôler les prix.
L’écart entre la théorie et la réalité
Dans les faits, des rendements d’échelle croissants peuvent être observées dans de nombreux secteurs. On voit alors se former des monopoles ou de fortes concentrations et des oligopoles.
Dans l’informatique, et notamment l’industrie du logiciel, les rendements sont croissants.
De nombreuses industries ont des coûts fixes élevés et des coûts marginaux faibles. Qu’on pense à l’édition ou à l’audiovisuel. Dans le domaine de l’énergie, les énergies très capitalistiques comme le nucléaire ou le solaire ont des coûts marginaux très faibles ou nuls (pour plus de détails, voir notre fiche sur le marché de l’électricité et celle sur le coût de financement des ENR).
Le rendements croissants s’observent aussi dans le secteur automobile, où les dix premiers des cinquante constructeurs mondiaux assurent 70% de la production totale.
Dans les industries plus classiques, les coûts fixes sont généralement élevés et il n’est pas du tout évident que les coûts marginaux des produits vendus soient décroissants. Les industriels sont tous à la recherche de progrès techniques qui visent à permettre l’inverse. Dans de nombreux secteurs, les coûts de revient baissent avec la hausse de la production cumulée (c’est la notion de courbe d’expérience, voir encadré).
La notion de courbe d'expérience
Cette notion a été découverte aux États-Unis à la fin des années 1960 par Bruce Henderson. Les ventes de microprocesseurs croissaient de façon explosive, et leur prix avait été divisé par dix entre 1964 et 1968. Henderson formula une règle simple : les prix baissent de 25% chaque fois que la production cumulée d'une industrie (baptisée expérience) double. Cinquante ans plus tard, cette règle explique pourquoi, l'expérience de l'industrie ayant été multipliée, en ordre de grandeur, par 1 milliard, les prix des microprocesseurs ont été divisés par 1 million. Et voilà pourquoi chacun a dans la poche, avec son smartphone, un produit qui aurait valu 200 millions de dollars il y a cinquante ans !
Source : Voir La leçon de l’expérience, billet de Xavier Fontanet, ancien PDG d’Essilor, sur les Échos (08/02/2018).
De tels secteurs contrôlés par des oligopoles posent à la politique de la concurrence un dilemme. La concentration est défavorable aux consommateurs car elle permet aux entreprises de fixer des prix élevés, pas ou peu atténués par la concurrence. Elle permet aussi aux quelques entreprises dominantes d’influencer plus facilement la réglementation (voir Essentiel 3 et notre module sur l’Entreprise). D’un autre côté, imposer une réduction des tailles des entreprises pour accroître la pression concurrentielle peut empêcher que ne soient réalisées des économies d’échelle. Certains observateurs considèrent ainsi que la politique de la concurrence européenne (voir Essentiel 8) trop rigoureuse a empêché l’émergence de champions européens, notamment dans les secteurs fortement innovants du numérique. Une autre cause pourrait cependant être la fragmentation des budgets européens de recherche comparés au budget fédéral des États-Unis. Notons en effet que la politique de la concurrence n’a pas empêché la consolidation de grands groupes européens à dimension mondiale dans les secteurs de l’automobile, la chimie ou la banque, ni, lorsque quelques États ont été prêts à coopérer, l’émergence du seul groupe aéronautique capable de faire concurrence à Boeing.
En conclusion, ces exemples montrent que les rendements croissants sont plutôt la norme que l’exception. Pourquoi donc les économistes néoclassiques se sont focalisés sur les rendements décroissants ? Pour deux raisons. Historique d’abord : il est bien exact que les terres étaient mises en culture par ordre de rendements décroissants. L’agriculture étant dominante au 18e siècle, l’hypothèse a été étendue sans réserve aux autres secteurs. Le machinisme n’avait pas encore fait ses preuves. L’autre raison est moins noble : la démonstration du théorème d’équilibre général repose sur l’hypothèse des rendements décroissants… Mettre en évidence trop clairement ce simple constat c’est risquer de faire descendre de son piédestal ce bel édifice théorique.
2.4 Les travaux de l’école néoclassique face aux imperfections de marché
Les économistes ont cependant constaté assez rapidement que les rendements peuvent être croissants. Citons entre autres l’économiste Joan Robinson, d’inspiration keynésienne et marxiste, qui constate que les entreprises cherchent à bâtir des monopoles qui leur permettent de fixer leurs prix et de faire davantage de profits. C’est ce que l’économiste Edward Chamberlin nommera plus tard concurrence monopolistique. En 1977, les économistes Avinash Dixit et Joseph Stiglitz mettent au point un modèle de concurrence monopolistique
Ces questions sont au centre de l’école de l’économie industrielle dont Jean Tirole (prix Nobel d’économie
Elle en déduit des régulations nécessaires dans un monde où les marchés imparfaits sont la norme, pour éviter les abus de position dominante tout en générant des incitations à l’innovation et à l’investissement. Ces travaux suggèrent des dispositifs tarifaires dans le domaine des industries de réseau ou pour encadrer les plateformes numériques. Néanmoins, ces travaux, en voulant corriger les imperfections de marché, restent inscrits dans le même cadre intellectuel : celui du marché comme référence centrale vers laquelle l’économie réelle doit converger. Ils ne permettent pas d’envisager, ni même de penser à, d’autres types de dispositifs de coordination.
Pour en savoir plus
Faire fonctionner et réguler des marchés concurrentiels
En 2008, intervenant au Sénat américain sur les causes de la crise financière, celui qui avait été un fervent défenseur des marchés libres, Alan Greenspan, président de la Federal Reserve (la Banque centrale états-unienne) jusqu’en 2006, reconnaissait s’être trompé sur les supposées capacités autorégulatrices des marchés financiers. Quelques mois auparavant, Sir Nicholas Stern avait déclaré que le dérèglement climatique était le plus grand échec du marché de tous les temps. En mars 2021, le laboratoire Servier était condamné au pénal en première instance pour avoir commercialisé un médicament avéré dangereux, le Mediator, qui a provoqué plusieurs centaines de morts. Mais l’Agence nationale de sécurité du médicament était également condamnée pour ne pas avoir suspendu suffisamment rapidement l’autorisation de mise sur le marché du médicament. En 1976, la catastrophe industrielle de Seveso
Ces exemples montrent l’importance de réglementations dans la poursuite de l’intérêt général et la nécessité de disposer des capacités à les faire respecter. Il n’y a en réalité aucune raison de penser que les marchés, c’est-à-dire en réalité des entreprises privées motivées par la maximisation de leurs profits, laissés à eux-mêmes servent l’intérêt général. Dans cet Essentiel, nous allons d’abord passer en revue les différentes défaillances du marché qui nécessitent une correction et les divers instruments à disposition pour les corriger.
L’approche actuelle des politiques publiques, qui consiste à chercher à corriger les défaillances des marchés est révélatrice d’un cadre de pensée de l’économie de marché, dans lequel la politique économique est conçue pour réduire l’écart entre l'idéal type des marchés concurrentiels et la réalité.
3.1 Faire fonctionner les marchés
Avant de nous intéresser aux défaillances des marchés, rappelons les règles indispensables à leur fonctionnement dans la pratique, et soulignons qu’il n’y a rien de naturel dans ces règles.
3.1.1 Le droit de propriété est à la base des marchés
La première règle est qu’il n’y a marché que si les droits de propriété sont clairement établis et que leurs détenteurs sont persuadés de pouvoir les faire respecter. Ce que l’on appelle communément une économie de marché est en réalité une économie des droits de propriété privés ou publics définis de telle façon qu’ils soient transférables. La définition des droits est loin d’être triviale et varie selon l’objet : propriété foncière, propriété intellectuelle (droits d’auteur, brevets), propriété par le biais d’actifs financiers (actions). Leur protection peut être plus ou moins solide, plus ou moins difficile à faire respecter, plus ou moins dépendante de l’appréciation par des juges. La définition exacte des droits de propriété
3.1.2 Sans tribunaux, pas de marchés
La deuxième condition de fonctionnement d’une économie de marché ouverte est la confiance dans le respect et l’exécution des engagements contractuels. En général, la justice d’État est en charge. Mais il arrive que les contractants conviennent, dans le contrat même, de recourir à des tribunaux d’arbitrage privés, notamment pour des contrats de commerce international.
Aux yeux de la loi, tous les contrats ne sont pas autorisés et respectables, soit du fait de la personnalité des contractants (abus de faiblesse, minorité), soit du fait de l’objet de la transaction (prostitution, gestation pour autrui, drogues), soit du fait de clauses abusives.
La pièce de Shakespeare, le Marchand de Venise, porte au paroxysme le dilemme de la puissance publique face à une situation où faire respecter un contrat -une nécessité pour protéger l’ordre économique- aurait des conséquences contraires à l’ordre suprême de la cité qui est de protéger la vie des citoyens. Un problème similaire se pose actuellement avec le Traité sur la Charte de l’Énergie (TCE).
Pour en savoir plus
3.2 Structurer les marchés : lutter contre la concentration
L’attention doit se porter sur les inégalités entre les intervenants. C’est tout le sens des politiques de la concurrence, dont on verra des exemples européens dans l’Essentiel 8. Donnons juste ici un exemple américain. Le Sherman Antitrust Act, de 1890, est la première loi du droit moderne de la concurrence rendant illégales certaines pratiques anticoncurrentielles :
- Les ententes et cartels (accords entre entreprises visant à restreindre la concurrence, comme la fixation des prix ou la répartition du marché) ;
- Les monopoles : la loi interdit également la création ou la domination de marchés par une seule entreprise de manière à éliminer la concurrence. Si une entreprise utilise une position dominante pour exclure les concurrents ou fausser la concurrence, elle viole la loi.
- Les pratiques commerciales déloyales, comme l'usage de moyens coercitifs pour écarter des concurrents, ou encore l'exploitation de partenariats et d'accords commerciaux de manière à nuire à la concurrence.
La littérature sur la question est extrêmement riche et nous nous contenterons ici de quelques exemples.
3.2.1 De nombreux secteurs économiques sont dominés par quelques entreprises
Le secteur du numérique est le premier qui vient à l’esprit, qu’il s’agisse du hardware et du software
Nous développons, dans le module L’entreprise à l’ère de l'Anthropocène, les conséquences néfastes qu’a une telle concentration (et le gigantisme des entreprises qui en découle).
3.2.2 Les principaux facteurs de la concentration de l’économie
Outre la logique économique de rendements croissants, ces concentrations ont été principalement favorisées par trois facteurs : la libéralisation des échanges mondiaux, la baisse des coûts unitaires des transports, en particulier par le gigantisme des cargos,
3.2.3 Des conséquences négatives pour l’ensemble de la société
De telles concentrations posent différents problèmes. Le premier assez classique est l’impact direct et immédiat sur les acheteurs : des prix trop élevés par rapport aux coûts et un affaiblissement de la qualité. Le deuxième problème résulte de la capacité d’influencer le législateur ou les agences en charge de la surveillance,
Confrontées à de telles concentrations, les autorités en charge de la concurrence ne sont pas en position de force. Elles ne peuvent pas poursuivre l’objectif illusoire d’une concurrence atomistique. Lorsque les autorités européennes de la concurrence sont amenées à juger des concentrations, elles mettent en balance les avantages potentiels qui résulteraient d’économies d’échelle et de la sécurisation des chaînes de production, notamment lors de concentrations verticales, avec l’affaiblissement de la pression concurrentielle. Elles doivent veiller à ce que le marché reste contestable
3.3 Corriger les principales défaillances du marché
Une première catégorie de défaillances
Une deuxième catégorie de défaillances est liée à l’information nécessaire pour une transaction en connaissance de cause. Les consommateurs doivent pouvoir être assurés que ce qu’ils consomment ne leur portera pas atteinte. Ils peuvent également souhaiter savoir si les biens qu’ils achètent sont produits dans des conditions respectant les travailleurs et l’environnement. La multiplicité, la diversité et la complexité des biens consommés empêchent une évaluation individuelle, qui serait au demeurant inefficace car l’information est un commun.
Troisièmement, les pouvoirs publics doivent réglementer les monopoles naturels, en particulier les réseaux d’infrastructure de transports, d’énergie ou l’exploitation de ressources naturelles (mines, eau, etc.). Ce qu’ils peuvent faire soit en en faisant une propriété publique, soit en fixant des conditions à leur exploitation.
Le marché des tacots ou la sélection adverse
Une information asymétrique entre un vendeur qui est en mesure de différencier si un produit est de bonne qualité et un acheteur qui ne l’est pas, est aussi une cause de défaillance majeure du marché. La métaphore du marché des tacots, pour les voitures d’occasion, présentée par George Akerlof dans son article Market for Lemons, en 1970 l’illustre bien. Dans une version simplifiée, l’acheteur n’est pas prêt à payer plus que la valeur qu’il donne au mauvais produit et le vendeur n’est pas prêt à vendre le bon produit au prix du mauvais. La préférence de l’acheteur est cependant pour le bon produit, même payé au prix qui serait demandé par le vendeur. L’incertitude sur la qualité fait que soit la transaction ne se fait pas, soit l’acheteur achète le mauvais produit au prix inférieur demandé par le vendeur (qui aurait aussi préféré vendre le meilleur produit). La solution est suboptimale des deux points de vue. La remédiation peut venir d’une garantie crédible donnée par le vendeur, le cas échéant combinée avec le certificat de passage à un contrôle technique administré ou régulé par l’État.
3.3.1 Le court-termisme des marchés : la tragédie des horizons
Quatrièmement les marchés sont myopes, et engendre la tragédie des horizons, selon une expression due à Mark Carney, alors président du fonds de stabilité financière et gouverneur de la Banque d’Angleterre, qui a utilisée en 2015 et popularisée cette remarquable formule, à propos du changement climatique.
La pratique habituelle en France pour les grandes entreprises est d’utiliser un taux compris entre 8% et 12%. Un taux de 10% conduit à un doublement des valeurs tous les 7 ans, donc une multiplication par 16 en 28 ans. Autant dire que les horizons considérés avec ce type de calcul sont très courts (puisqu’à l’inverse une dépense ou un revenu apparaissant dans 28 ans vaut un seizième de ce qu’il vaudrait aujourd’hui !). Une autre manière d’exprimer la même chose, c’est de faire le constat que les investissements réalisés par ces entreprises doivent, selon les directions financières, être rentabilisés en ordre de grandeur sur 3 ans.
Ce court-termisme constitue clairement une défaillance de marché. Il ne concerne pas que le changement climatique mais l’ensemble de la problématique du développement durable. Le marché est intrinsèquement trop court-termiste pour prendre en considération, par lui-même, les questions de long terme. Certes certains actionnaires ont, au moins pour une partie de leur patrimoine, des horizons longs et cherchent à obtenir des plus-values à long terme plus qu’un rendement immédiat.
Mais ce n’est pas la majorité d’entre eux. Pour réintégrer le long terme dans le choix des entreprises et des financiers, il faut donc une action résolue des pouvoirs publics.
Enfin, il n’y a aucune raison de penser que les mécanismes de marché conduisent à une distribution des revenus socialement et politiquement acceptable. Il en est de même pour l’accès à certains biens ou services de première nécessité, comme l’assurance maladie ou l’ouverture d’un compte bancaire.
À titre d’exemples, nous reviendrons plus en détails dans les Essentiels suivants sur la réglementation de deux types de transactions très particulières, que la théorie néoclassique assimile à un marché : les produits financiers et les ressources naturelles.
Pour en savoir plus
3.4 Investissements, incitations, réglementations, tarification : comment l’État peut corriger les défaillances des marchés
Nous allons nous contenter ici d’identifier différents instruments de politique publique qui permettent d’orienter les marchés. Ils peuvent être rangés dans trois grandes catégories : les investissements publics, les incitations financières (taxation et tarification, transferts et subventions, politiques de crédit)
En général, les politiques doivent combiner plusieurs instruments. Une des raisons en est la nécessité de prendre en compte l’impact des mesures sur l’ensemble des objectifs poursuivis, notamment sur la distribution des revenus. Une autre est que plusieurs marchés peuvent être défaillants. Au premier abord, l’idée de combattre le réchauffement climatique en taxant très fortement toutes les émissions de gaz à effet de serre indépendamment de leur origine paraît séduisante. Ceux qui préconisent une telle approche suggèrent de redistribuer les revenus fiscaux pour compenser les pertes de pouvoir d’achat des plus vulnérables. Mais se pose, par exemple, aussi le problème de l’accès au crédit et de l’intérêt pour un investisseur, même aisé, d’un investissement lourd dans une rénovation thermique dont le rendement n’est assuré qu’à très long terme, et qui n’a pas toutes les informations lui permettant de juger la nécessité des moyens et la qualité des résultats. Cet investisseur, réfléchissant à plus court terme, verrait son capital liquide et disponible à court terme ou sa capacité d’endettement amputés, sans contrepartie immédiate et sans certitude que des innovations technologiques ne rendront pas son investissement obsolète à plus brève échéance que prévu. Cette défaillance du marché pourra être corrigée en combinant une obligation légale d’agir, une subvention et certification des moyens et résultats par des organismes agréés.
Pour en savoir plus
L’économie ne se réduit pas au couple marché - État
Dans les Essentiels précédents, nous avons analysé les processus économiques en termes binaires : d’un côté, les marchés ; de l’autre, l’État - sécurisant les transactions et régulateur. Nous allons voir que cette vision binaire, dominante chez beaucoup d’économistes, appauvrit l’analyse des relations économiques et le débat sur les politiques publiques. Il peut facilement conduire à des erreurs de diagnostic et de prescription. Nous décrivons ici d’autres façons de contribuer à la coordination des activités économiques. Ces modes de coordination complètent ou se substituent à l’État et/ou au marché et interagissent avec ces derniers. Ils passent souvent sous le radar mais n’en sont pas moins indispensables à la compréhension du fonctionnement de l’économie.
4.1 L’importance des réseaux relationnels, en particulier sur le marché de l’emploi
La formation des salaires et les relations de travail sont largement façonnées par différentes institutions et réglementations, héritage de décennies de combats politiques et sociaux. Parmi ces institutions, citons le droit du travail, les droits sociaux annexes (retraite, assurance maladie, assurance chômage), le droit de grève, le droit d’association et de représentation par des organisations professionnelles ainsi que le dialogue social.
Comme on l’a vu à la fin du premier Essentiel, Adam Smith s’amusait de ceux qui croyaient que le salaire d’équilibre était lié à la main invisible
Le mécanisme qui tient la coalition est réputationnel, c’est-à-dire le risque d’être exclu d’un réseau social favorisant les transactions entre personnes dignes de confiance. Nul doute en effet que les membres de cette élite entrepreneuriale utilisaient leur pouvoir collectif pour d’autres choses que seulement maintenir les salaires à un niveau peu élevé. On peut supposer qu’au sein de cette coalition, les informations circulaient sur les personnalités des ouvriers, sur la confiance que l’on pouvait accorder à tel marchand étranger , voire sur la situation financière de tel membre de la coalition et sur la meilleure façon d’organiser, puis d’utiliser, le pouvoir politique pour protéger ses droits de propriété et rentes.
À notre époque et à l’autre bout de l’échelle sociale de la coalition identifiée par Smith, les réseaux d’immigrés établis dans les pays-hôtes (diaspora) permettent d’illustrer certains mécanismes qui émergent lorsque les institutions formelles ou le marché sont défaillants. La raison principale de l’émergence de tels réseaux est la réplication, dans le pays-hôte, de solidarités ou reconnaissances mutuelles existantes dans le pays d’origine. Ces réseaux sont pour leurs membres source de soutien économique et social, dans la mesure où ils favorisent des transactions entre eux, grâce à une confiance mutuelle ou une solidarité spontanée ancrée dans l’appartenance à une même communauté. Ils sont aussi source d’informations pour les nouveaux arrivants sur les opportunités offertes par le pays-hôte, notamment en matière d’emplois informels, même en situation illégale.
Pas plus que les marchés, les réseaux ou associations ne sont cependant la panacée. Ils peuvent avoir, comme les marchés, des effets négatifs externes majeurs nécessitant une intervention de l’État. Ils peuvent développer des économies parallèles et du clientélisme excluant les non-membres plutôt que de renforcer les liens de la communauté avec les tiers. Ils peuvent aussi développer des structures claniques et patriarcales. Que l’on songe à la criminalité organisée, dont les méthodes pour discipliner les membres sont en outre, en général, coercitives et punitives jusqu’à l’extrême.
4.1.1 Réseaux, associations professionnelles et représentation de la société civile
L’émergence de réseaux réputationnels ou la constitution d’associations peut aussi être un moyen de sécuriser des transactions entre entreprises. Elle est, en général, d’autant plus probable et nécessaire que l’État est faible (et que l’accès à la justice est coûteux, peu fiable ou inéquitable). L’État peut aussi considérer que l’investissement qui lui serait nécessaire pour réguler un marché très particulier est disproportionné par rapport à l’intérêt général ou que le marché peut être trop facilement délocalisé et se mettre hors de portée de la juridiction pour qu’il puisse le réguler efficacement. Dans tels cas, les membres de réseaux informels peuvent être incités à se constituer en associations formelles et fixent leurs propres règles et procédures d’arbitrages de conflits. C’est par exemple le cas du New York Diamond Dealers Club. L’appartenance à cette association est également un signal à l’attention de tiers sur le respect de certaines normes qu’ils peuvent attendre et les possibilités d’arbitrage. Dans ce cas, ce Club se substitue au système juridique légal tant pour les relations entre ses membres que dans ses relations avec des tiers. Le Club a aussi une fonction de représentation vis-à-vis des pouvoirs publics lorsque des intérêts généraux sont en jeu.
Les réseaux formels ou informels de (re)connaissance mutuelle peuvent être le complément nécessaire des systèmes juridiques pour créer la confiance nécessaire dans les relations commerciales. C’est ce qu’ont montré des études empiriques réalisées dans des pays d’Europe centrale et orientale pendant la période de transition qui a suivi la chute du mur de Berlin. À la fin des années 90, le diagnostic était que le système juridique avait fait suffisamment de progrès pour réguler efficacement en dernier recours les droits de propriété et les transactions, mais qu’il était important que les gouvernements soutiennent le développement d’institutions comme des chambres de commerce ou des associations professionnelles capables de faire circuler une information fiable et non discriminante.
Dans les économies fortement réglementées comme celle de l’Union européenne, les associations professionnelles jouent un rôle important comme interlocuteur privilégié des administrations et des pouvoirs politiques dans la fabrique de la loi. L’argument mis en avant est que ces associations font converger et agrègent les perceptions et opinions de leurs nombreux membres ce qui facilite la tâche du législateur et qu’elles peuvent mettre à disposition une expertise supérieure à celle de l’administration. Bien entendu se pose alors immédiatement la question des contre-expertises et des contrepoids à apporter aux lobbies. La prolifération des organisations non gouvernementales (ONG) de défense d’intérêts communs, par exemple en matière de défense environnementale, de lutte contre la fraude fiscale, de respect des droits fondamentaux dans le cadre d’activités économiques dans des pays à faible capacité administrative et judiciaire fait partie de la réponse. Leur capacité à être un contrepoids efficace dépend cependant principalement de trois facteurs : leur sécurité (qui n’est pas toujours assurée - voir les assassinats d’activistes environnementaux en Amérique du Sud), les ressources dont elles disposent et leur reconnaissance de jure et de facto comme acteur légitime dans les processus de décision politique, administratif et judiciaire.
4.1.2 Banques coopératives
Un secteur dans lequel les relations et la connaissance mutuelle jouent un rôle particulièrement important en Europe (avec toutefois des différences de degré selon les pays) est celui des banques coopératives. Ces banques accordent traditionnellement une part importante du crédit bancaire, dans de nombreux pays européens notamment en Allemagne (20% du crédit bancaire en 2022)
Sous la pression des régulateurs, mais aussi d’une logique financière ou économique, les banques coopératives se sont constituées en réseaux ou sont intégrées dans des structures verticales ce qui leur permet d’abord de gagner en crédibilité en signalant ou garantissant un soutien mutuel si nécessaire en cas de problèmes de liquidité ou de solvabilité et, selon le degré d’intégration, de réaliser des économies d’échelle sur des infrastructures communes (par exemple, informatique). Plusieurs modèles ont émergé en Europe au cours des dernières années. Cela va de réseaux de banques qui sont indépendantes, mais bénéficient d’un système de protection institutionnel (IPS) et sont supervisés par le niveau national (Allemagne, Autriche, Espagne), à des groupes entièrement intégrés dans lesquels les banques locales ne sont que des antennes ne disposant pas de capital propre (Portugal et Luxembourg), en passant par des conglomérats impliquant une relation maison mère-filiale (France, Italie) et supervisés au niveau européen.
Ce système peut cependant aussi avoir des faiblesses. Comme le notait le gouverneur de la Banque d’Italie dans une intervention de 2018, le pas est vite franchi entre une banque qui soutient les intérêts locaux et une banque piégée par la région.
La contribution des réseaux et des coopérations/coopératives à l’activité économique est largement délaissée par la recherche économique. Cette dernière a développé une vision de l’économie désencastrée de la société et qui ne serait constituée que de marchés et d’États. À titre illustratif, le tableau ci-dessous contient le nombre de références académiques renvoyées par la banque de données bibliographiques Econlit qui remonte jusqu’en 1900.
Références bibliographiques (1900-2023) renvoyées par Econlit (22/08/2023)

4.2 La gestion des communs : le travail d’Elinor Ostrom
Elinor Ostrom, politiste et néanmoins corécipiendaire en 2009 du Nobel d’économie
4.2.1 Gestion par l’État ou privatisation sont de fausses solutions
Elinor Ostrom montre deux choses
4.2.2 À quels niveaux gérer les communs ?
Le deuxième constat est qu’il existe des solutions si on lève l’hypothèse de la non-communication entre les parties prenantes, et si l’on suppose que ces dernières sont des êtres sociaux dotés de raison qui ne sont ni muets ni sourds aux arguments des autres et qui souhaitent trouver un compromis profitable (en bref les animaux politiques d’Aristote).
Le programme de recherche mené et inspiré par Elinor Ostrom s’est toujours nourri d’aller-retours entre les observations empiriques et la construction d’une théorie du gouvernement de communs. Le premier constat a été que de nombreux communs ont existé et existent durablement dans de nombreux secteurs et zones géographiques contrairement aux prévisions tragiques.
La gestion et préservation de communs dépendent d’un accord entre les parties prenantes. Cet accord porte pour l’essentiel sur les droits et obligations de chacun, les sanctions et le mécanisme de surveillance, ainsi que sur les procédures permettant d’adapter ces règles. L’idée est que les parties prenantes, mieux et plus vite qu’un tiers, par exemple une administration centrale, disposent des informations nécessaires que ce soit pour définir les règles, réagir à des évolutions inattendues dommageables ou pour sanctionner le non-respect des règles. Une autre façon d’aborder la question est de différencier les droits sur le commun et de lever l’hypothèse simpliste du libre accès. Il est, par exemple, possible de distinguer cinq droits différents sur un domaine ou une ressource naturelle qui peuvent être attribués à des parties prenantes : le simple droit d’accès sans droit de prélever, le droit de prélever, le droit de gestion et de réglementer, le droit d’exclure de l’accès et le droit de vendre ou louer.
Une gestion décentralisée n’exclut pas qu’un niveau supérieur impose une contrainte ou un objectif. Si la coopération n’est pas spontanée, une solution possible est par exemple qu’un pouvoir tiers interdise l’utilisation du commun avant accord entre les parties prenantes. Ainsi, l’Union européenne est à la fois engagée vis-à-vis de la communauté internationale par l’Accord de Paris sur des objectifs de réduction des émissions de gaz à effet de serre, et engage les États membres sur des objectifs nationaux leur laissant un large choix des moyens et sur la façon dont ils vont mobiliser les acteurs nationaux. Autre exemple, les causes de la raréfaction des ressources en eau dans certaines régions européennes nécessitent de dégager un équilibre entre ce qui devra être imposé par un pouvoir supérieur, juridictionnel ou politico-administratif, pour ajuster la demande totale à une offre durable, et ce qui relèvera d’un accord entre les différents usagers.
L’exemple de la prairie de Hardin montre que la durabilité d’un commun est mise en danger si son accès ne peut pas être restreint par les acteurs locaux. La question se pose avec acuité quand une prestation de services est associée à la gestion d’une ressource naturelle d’un territoire par définition non extensible, par exemple domaine skiable. La communauté de professionnels résidents locaux, par exemple des guides alpins, a un intérêt à sa sauvegarde et réputation (sécurité). Autoriser des venues opportunistes et épisodiques de passagers clandestins, professionnels étrangers au territoire, peut facilement conduire à détériorer l’intérêt des locaux à cette sauvegarde.
La question de la pertinence des enseignements d’Ostrom se pose au moment de la crise de communs globaux, le climat, la biodiversité et la pollution des océans, avec en cascade la crise de communs locaux, la santé publique, l'assèchement de nappes phréatiques, la déforestation par embrasement ou coupes, la qualité de l’air dans les agglomérations et à proximité des sites industriels et de l’eau. Nous reviendrons sur cette contribution dans l’Essentiel 7, consacré à la marchandisation de la nature.
4.2.3 Face aux crises écologiques, faire le lien entre local et global
Dans la pratique, la lutte contre le changement climatique nécessite la mobilisation de tous les niveaux de décision, du local au mondial. Insistons sur l’échelon territorial. Une grande partie des réductions nécessaires de gaz à effet de serre suppose une restructuration de l’usage de la voie publique dans les villes et métropoles ainsi que de l’usage et entretien des sols et des ressources en eau dans les campagnes. La rénovation thermique des immeubles collectifs et des communautés décentralisées de production/consommation d’électricité à partir d’énergies renouvelables fait aussi partie des solutions. C’est donc bien une gouvernance capable de relier le local et le global qui est nécessaire. Si le signal-prix peut aider, il n’est en rien suffisant. Le déploiement des véhicules électriques suppose une mise en cohérence du rythme de déploiement des recharges électriques (privées et publiques), de celui de l’adaptation des réseaux électriques et de celui des ventes de véhicules. Les coordinations entre régions, départements et communes pour les réseaux de transport collectif sont décisives, tout comme les aides souvent locales à la rénovation des passoires thermiques souvent habitées par des personnes à faible niveau de ressources incapables d’investir quel que soit le prix de l’énergie. De la même manière, les banques de proximité peuvent ou non jouer un rôle pour accompagner les PME et les ménages dans cette transition. Enfin les investissements à réaliser doivent généralement tenir compte de la dérive climatique, pour laquelle le signal prix carbone ne donne aucune information.
Une vision idéalisée des marchés ne permet pas de construire des politiques publiques efficaces, même si elles doivent jouer sur le signal-prix et, le cas échéant, selon des modalités qui peuvent être variables selon de nombreux critères, loin de la pureté des modèles. Dans tous les cas, elles doivent mobiliser d’autres instruments et une architecture de gouvernance complexe du local à l’international.
4.3 Une partie de l’activité des entreprises a lieu en dehors des marchés
À l’origine, la théorie néo-classique s’est concentrée sur les transactions marchandes. Dans cette vision, l‘entreprise est réduite à une fonction (mathématique) de production et l’entrepreneur à un deus ex machina combinant de façon efficiente les facteurs de production.
4.3.1 Les contrats de travail
Dans cette simple expression, la théorie néo-classique est incapable d’expliquer l’existence d’entreprises capitalistes qui organisent les productions et services en interne, non pas sur la base d’échanges marchands, mais selon des règles définies et mises en œuvre dans un système hiérarchique. Ceci est particulièrement visible dans les relations de travail. À l’inverse d’un contrat de services avec une contrepartie indépendante
4.3.2 Éviter les coûts de transaction : les relations entre services internes dans les entreprises
Ronald Coase a pointé le premier, en 1937, qu’il n’était pas possible de se contenter d’une vision selon laquelle le système économique travaille de lui-même grâce au mécanisme de prix, alors qu’il existe de nombreuses situations dans lesquelles les activités économiques sont induites par des instructions données dans des systèmes hiérarchiques (les entreprises).
La réponse, inspirée par l’article de Coase (1937) est que le recours au marché a un coût dit de transaction. Ces coûts de transaction se composent pour l’essentiel des coûts d’obtention de l’information sur d’éventuelles contreparties, des coûts de publicité, d’information sur le bien échangeable, de négociation, de finalisation et de surveillance de bonne fin d’un contrat ainsi que des risques de défaillance d’une des parties.
Certaines transactions peuvent se faire à moindre coût au sein de l’entreprise. On dit alors qu’elles sont internalisées. Prenons l’exemple d’une entreprise de construction qui a besoin d’études de stabilité. Cette entreprise peut mettre, à chaque nouvelle construction, en concurrence des bureaux d’études tiers : mais ceci nécessite, entre autres, qu’elle établisse avec autant de précision possible les termes de référence, qu’elle partage des informations qu’elle préfèrerait tenir confidentielles, qu’elle s’assure que l’étude sera accomplie à temps (avec le risque d’une procédure judiciaire) et que le bureau aura travaillé en tenant compte de son intérêt (minimisation des coûts de construction en tenant compte de la réglementation). Elle peut aussi développer une relation de confiance avec un bureau d’études et ne plus travailler qu’avec lui, construction après construction, ce qui lui permet de réduire les risques sur la qualité du résultat ; ou intégrer le bureau d’études dans sa propre structure ce qui lui permet, en outre, de contrôler la façon de faire. Une telle intégration peut, au demeurant, nécessiter d’investir dans des mécanisme internes de contrôle et d’incitation pour pallier d’éventuelles asymétries d’information entre le manager et l’exécutant.
4.3.3 Intégration verticale, sous-traitants et coordination hors marchés
Les entreprises statutairement établies ont un autre avantage : celui de leur durabilité et de la plus grande transparence sur leur gouvernance, y compris les conditions légales de leur faillite. La prévisibilité pour ceux qui les financent, actionnaires ou créanciers, s’en trouve accrue ce qui en facilite l’engagement. Les entreprises peuvent, de ce fait, accroître leurs sources de financement. Ceci facilite en retour leur capacité à réaliser des économies d’échelle et à bénéficier de l’accumulation d’expériences et à préserver en leur sein des savoir-faire.
Les accords internationaux de protection des investissements ainsi que de la propriété intellectuelle et la libéralisation et expansion des marchés financiers ont, au cours des dernières décennies, accru les opportunités offertes aux entreprises pour se développer globalement. L’intégration verticale de la production a changé de visage : les chaînes de production typiquement centralisées se sont fragmentées. Cette fragmentation a conduit les entreprises multinationales à sous-traiter, à délocaliser et à saisir des opportunités qui s’offrent dans différents pays en termes de coûts du travail, de (faiblesse de la) protection de l’environnement et/ou de fiscalité et le cas échéant de responsabilité civile ou pénale. Même si les entreprises concernées sont juridiquement indépendantes, cela n’atténue en général pas la dépendance des fournisseurs à leur donneur d’ordre et le besoin de coordination hors marché.
On comprend alors que les limites de l’entreprise, le choix acheter ou produire, internaliser ou externaliser certaines activités, être propriétaire ou non des entreprises de fournisseurs ou de clients ne soient pas figés et soient sujets à des expérimentations successives.
Pour en savoir plus
L’autorégulation des marchés au regard de l’Histoire
Le mythe fondateur de l’équilibre des marchés date comme on l’a vu de la fin du 18e siècle, début de la révolution thermo-industrielle. Le 19e siècle a connu de nombreuses crises économiques, que les économistes de l’époque et du début du 20e siècle ont appelé cycles économiques. La crise de 1929 a constitué un tournant majeur : cette crise ne s’est pas résorbée d’elle-même. La nécessaire intervention de l’État est alors théorisée, contre la pensée classique, par l’économiste John Maynard Keynes. La guerre vient sortir les économies occidentales de la crise, et l’après-guerre fait émerger des modèles d’économie régulés de diverses manières et parfois dirigés. En parallèle, la révolution keynésienne fait émerger une contre-révolution : le néolibéralisme qui inspire les modèles économiques les plus libéraux. Reprenons plus en détail ces quelques points.
5.1 Les cycles économiques du 19e siècle
Le 19e siècle est marqué par l'émergence et le développement du capitalisme industriel, et connaît des cycles économiques
5.2 La crise de 1929
La crise de 1929 est l’un des événements économiques majeurs du 20e siècle, qui remet en cause fondamentalement le raisonnement économique classique. Les autorités (y compris la Fed aux États-Unis) ont en effet attendu que l’économie se redresse d’elle-même comme dans les cycles du 19e siècle. Il n’en a rien été. Résumons l’histoire de cette crise.
Le 24 octobre 1929, connu comme le Jeudi noir, les investisseurs commencent à vendre massivement leurs actions, provoquant un effondrement des cours. La panique s’intensifie les jours suivants, culminant le Mardi noir (29 octobre). En quelques semaines, la Bourse de New York perd près de 90% de sa valeur et ruine de nombreux porteurs. Cet effondrement boursier marque le point de départ d'une crise économique globale. Aux États-Unis, des milliers de banques font faillite, entraînant la perte des économies de nombreux ménages. Le crédit se raréfie, paralysant l’économie. L’industrie et l’agriculture subissent une chute brutale de leur activité. Le taux de chômage atteint 25% en 1933. Des millions d’Américains se retrouvent sans emploi et souvent réduits à la pauvreté. La crise se propage rapidement au plan international, du fait de l'interconnexion des économies. Les exportations américaines s’effondrent, affectant les pays dépendants de leurs débouchés, comme l’Allemagne et les nations latino-américaines. Les politiques protectionnistes, comme les droits de douane Hawley-Smoot (1930), aggravent la situation en réduisant les échanges commerciaux.
Face à l’ampleur de la crise, les (absences de) réponses initiales des autorités sont issues de la pensée économique classique. Aux États-Unis, le président Herbert Hoover reste attaché à une politique de non-intervention, aggravant les effets de la dépression. Quant au président de la Fed, Roy A. Young, il n’intervient pas pour sauver les banques
Au niveau mondial, les gouvernements commencent à s’éloigner du libéralisme économique pour adopter des politiques interventionnistes. En Allemagne, la réponse déflationniste du chancelier Brüning aggrave la situation économique et sociale et facilite la prise de pouvoir d’Adolf Hitler.
La crise de 1929 ne se résorbera pas vraiment : en 1939 c’est la guerre mondiale qui éclate et la montée en puissance d’une économie de guerre qui remet l’économie sur ses rails.
5.3 La critique du laisser-faire par Keynes
John Maynard Keynes est à la fois acteur et observateur engagé de la crise de 1929. Il remet en cause fondamentalement le dogme de l’autorégulation des marchés , qu’on peut appeler celui du laisser-faire, laisser passer. Aux yeux de Keynes, il n'est pas vrai que la crise se résorbera d’elle-même. Il écrit dans son livre fondamental La Théorie générale de l’emploi, de l’intérêt et de la monnaie, publié en 1936 :
![]()
La proposition selon laquelle l'offre crée sa propre demande est fallacieuse si elle est interprétée au sens où elle impliquerait que la totalité des revenus créés par la production doit toujours être dépensée en consommation. Une partie peut être épargnée, et si elle n’est pas investie, elle ne contribuera pas à la demande effective
Le chapitre 2, dont est extrait cette citation, est consacré à la critique des postulats classiques, dont la loi des débouchés de J.B. Say
5.4 La vision néolibérale du marché
L’idéologie néolibérale se constitue en particulier sous l’impulsion de Friedrich Hayek en réaction au keynésianisme et aussi à la montée du communisme dans la monde. Pour l’école néolibérale, le marché est le meilleur régulateur des activités économiques et la mission des politiques est en tout premier lieu la protection juridique de la propriété privée et de l’exécution des contrats. Elle est ensuite de ne pas entraver la libre circulation des biens et services, des personnes et des capitaux. L’Etat doit se contenter de fixer les règles du jeu et d’intervenir pour pallier les défaillances du marché et non s’y substituer. Il doit fixer et respecter les règles du jeu économiques. Il doit être régulateur. En un mot, l’État doit être au service des intérêts privés.
L’irréalisme de politiques de la concurrence qui viserait à établir et préserver des marchés atomistiques est reconnu. Les néolibéraux ne sont donc pas opposés par principe aux concentrations économiques. Ils pensent que les politiques de concurrence doivent chercher – avec des nuances entre les juridictions – à trouver le bon équilibre entre les gains d’efficacité engendrés par des économies d’échelle et la lutte contre les abus de position dominante qui mettent des barrières à de nouveaux entrants. C’est aussi le cas pour le marché du travail, qui doit être flexible pour permettre une allocation optimale de la main-d’œuvre et améliorer la compétitivité économique. Les syndicats sont considérés comme des entraves à cette flexibilité.
5.5 Différentes approches du marché cohabitent à travers le monde
Nous allons ici nous intéresser à la manière dont, dans la réalité, les pays au sortir de la Seconde guerre mondiale ont régulé les marchés en fonction de leur culture, de leurs institutions, de leur droit, des rapports de force… et des événements. Nous allons exclure ici le cas de la Chine
Comment y voir clair dans la complexité du monde contemporain ? La première distinction à faire est d’opposer un capitalisme plus libéral, anglo-saxon, et un capitalisme plus coopératif (Europe continentale et Japon). C’est Michel Albert, dans son livre Capitalisme contre capitalisme (Seuil, 1991), qui a proposé cette distinction en appelant rhénan le capitalisme plus coopératif. Cette distinction est assez intuitive. Le monde économique anglo-saxon (États-Unis, en Australie, Canada, Australie, Nouvelle Zélande) croit plus à la nécessité pour chacun de s’en sortir par ses propres moyens, à la réussite individuelle et assimile vite intervention de l’État à privation de liberté et inefficacité. Les entreprises sont là pour servir les intérêts de leurs actionnaires, et c’est ainsi qu’elles œuvrent pour l'intérêt général qui s’identifie à la performance économique. Les difficultés des plus pauvres sont relativisées ou considérées comme une fatalité. À l’opposé le modèle dit rhénan croit à la nécessité de protéger les plus faibles et les plus démunis, et veut tempérer le libre jeu du marché, quand il crée des inégalités excessives voire de la pauvreté. Ce modèle est plus sensible au long terme que le modèle libéral.
Cette grande distinction se retrouve par exemple dans le conflit ouvert (en 2024 et 2025) entre les tenants de la Responsabilité Sociale et Environnementale des entreprises (et de la nécessité d’un reporting extra financier et de contraintes à exercer sur les entreprises pour qu’elles tiennent compte du social et de l’environnement, l’instar de la directive européenne CSRD) et ceux qui considèrent qu’il n’y a pas à contraindre les entreprises de la sorte. Ce conflit est au coeur d’une remise en cause de l’agenda européen du Pacte Vert
Cette distinction a été creusée dans la théorie dite de la Variété des Capitalismes.
5.5.1 L’approche des Variétés de Capitalisme
Cette théorie distinguent les économies de marché libérales (EML)
Les premières se caractérisent par une forte concurrence sur les marchés des biens et services, la flexibilité de l’emploi, un système financier réactif et favorisant les restructurations rapides, une protection sociale publique peu développée.
En forçant le trait, une économie de marché coordonnée typique d’un pays développé se caractérise par des participations croisées dans les entreprises, et des associations d’employeurs et entrepreneurs puissantes favorisant la circulation d’informations et le transfert de technologie. Ceci, en retour, crée un climat de confiance favorable permettant un accès à des capitaux patients moins dépendant des résultats à court terme que le recours à des marchés financiers concurrentiels. Les systèmes financiers dans les EMC sont orientés vers des relations de long terme. Les entreprises dépendent moins des marchés boursiers et plus des banques et autres institutions financières pour leur financement. Cela permet de limiter la pression pour des résultats à court terme et favorise l'investissement durable.
En termes de réglementation et gouvernance de l’emploi, la définition des normes pour les produits est largement dans les mains des associations professionnelles. Les salaires sont fixés non au niveau individuel, mais dans des négociations au niveau national ou des branches entre les associations d’employeurs et les syndicats de salariés également puissants. La formation professionnelle est organisée au niveau des branches sous le contrôle des employeurs et des syndicats. Elle s’appuie sur les savoir-faire partagés et répond aux besoins spécifiques des entreprises du secteur. Au sein des entreprises, des droits importants sont accordés aux représentants des salariés ce qui facilite une gestion orientée sur le long terme.
5.5.2 L’approche des cinq capitalismes
L’approche des Cinq capitalismes
- les pays scandinaves (social-démocrate), qui accordent un rôle central aux partenaires sociaux et sont très égalitaires par leur protection sociale et l’échelle des salaires avec des politiques de formation et réinsertion professionnelles très actives.
- le modèle de l’Europe centre-nord (continental), moins égalitaire et où la protection des revenus est limitée aux plus pauvres.
- les pays du sud-européen (méditerranéen), avec une plus forte protection de l’emploi et une protection sociale moindre que dans le nord de l’Europe.
- Le quatrième groupe est constitué des économies asiatiques : il repose sur le développement de grandes firmes opérant en collaboration informelle avec l’État et sur un système financier centralisé. Les salariés de ces conglomérats sont protégés de facto par une politique de carrière stable.
Voici un tableau résumant les différences entre ces modèles :

5.5.3 La mondialisation contre les économies de marché coordonnées
Rappelons d’abord que financiarisation et globalisation ont été le résultat de choix politiques initiés aux États-Unis sous la présidence Reagan et au Royaume-Uni sous Margaret Thatcher et imités dans plusieurs pays. Rappelons également que la montée en puissance de la Chine (avec sa forme très spécifique de capitalisme d’État si l’on ose l’appeler ainsi) a également fortement déstabilisé les économies coordonnées. Ce double mouvement très puissant les a mis en difficulté, à la fois par sa forte attractivité pour les consommateurs (des prix bas issus de la Chine et des innovations permanentes en provenance des États-Unis, notamment dans le numérique et les télécommunications (avec les smartphones et toutes les applications installées) pour simplifier), et par une insuffisante protection des producteurs de la concurrence internationale.
Ces pays ont répondu et continuent de répondre de diverses manières à cette pression. Des adaptations partielles ont lieu, mais, à ce stade, elles n’ont pas conduit à des institutions à l’anglo-saxonne pures. Elles font des perdants et des gagnants et leur mise en œuvre dépend des résistances qui leur sont opposées et de leur impact supposé sur les groupes sociaux susceptibles de former des coalitions politiques majoritaires. Au niveau européen cette résistance est cependant affaiblie par la construction du marché européen (voir Essentiel 8) d’inspiration néolibérale.
Illustrons ce point par l’exemple de l’Allemagne.
La déréglementation du marché du travail initiée par le gouvernement Schröder dans la première moitié des années 2000 n’a pas remis en cause le pouvoir des salariés au sein des entreprises, malgré les pressions du patronat pour revenir sur la représentation paritaire au sein des conseil de surveillance et affaiblir les comités d’entreprises. Les négociations collectives salariales couvrent encore 55% des salariés (contre 65% au début des années 1990 et, pour comparaison, 13% aux États-Unis).
En revanche, la levée des limites réglementaires au travail temporaire et le durcissement des conditions de l’assurance chômage ont conduit à une précarisation des salariés peu qualifiés et à une dualisation des emplois : d’un côté des travailleurs qualifiés bien payés et en CDI de l’autre des travailleurs précaires mal payés. La montée des inégalités qui a suivi et les pressions sur les bas salaires ont conduit, en 2015, sous la pression des syndicats et du parti social-démocrate, à l’introduction d’un salaire minimum.
Au début des années 2000, les banques commerciales ont exercé des pressions, relayées par la Commission européenne, pour que les caisses d’épargne détenues par les pouvoirs locaux et les banques de développement détenues par les Länder (régions) soient soumises au régime commercial commun. La classe politique allemande a quasi unanimement résisté, afin d’éviter le démantèlement prévisible du réseau de caisses d’épargne fortement ancré localement et apprécié par l’électorat. Un compromis a pu être trouvé pour sauvegarder un statut privilégié aux caisses d’épargne.
De tels exemples pourraient être multipliés mais le cas allemand montre bien l’ambivalence de la construction européenne dans sa réaction à la violence du modèle libéral (EML).
5.6 L’anarcho-capitalisme
Bien loin des régulations du marché par l’État que nous venons d’évoquer, l’anarcho-capitalisme
Selon les anarcho-capitalistes, les prélèvements obligatoires et les réglementations (législation, décrets, mesures administratives, etc.) sont illégitimes. Et ils considèrent que l’État n’est pas nécessaire pour garantir la propriété privée. Ils sont favorables à la privatisation de tous les services. Ils s’opposent à toute forme de redistribution non volontaire, opérée par l’État, qu’ils considèrent comme du vol.
Inutile de dire que ce système est à la fois extrêmement violent pour tous ceux qui ne pourraient pas survivre par eux-mêmes, et anti-démocratique. Alors même qu’il prétend vouloir se débarrasser de la puissance publique, il nécessite un pouvoir fort (contrairement à l’idée d’anarchisme) pour mater les inévitables soulèvements des damnés du système. Cette idéologie est plébiscitée aujourd’hui aux États-Unis par quelques milliardaires
Il est curieux de noter que cet anarcho-capitalisme n’est pas sans proximité avec ce que les économistes Pierre-Yves Hénin et Ahmet Insel
Pour en savoir plus
Les marchés financiers
6.1 Définition et rôle d’un marché financier
Dans cette partie, nous nous intéressons aux marchés financiers dont le développement et l’ouverture internationale sont le pivot du système économique actuel. Les gestionnaires d’entreprises se sont vus progressivement imposés comme premier, voire unique critère d’évaluation, un rendement financier concurrentiel, déterminé sur des marchés internationaux.
Un marché financier
Les marchés financiers assurent des fonctions de financement de l'économie, de placement pour les investisseurs, d'allocation et de gestion des risques ainsi que de liquidité
6.1.1 Les différents types de marchés financiers
L'émission de ces titres financiers se fait sur un marché dit primaire. Par exemple : à l'occasion d'une introduction en bourse, d'une augmentation de capital ou d'une émission d'obligations.
Une fois l'émission terminée, ces titres seront négociés par différents acheteurs et vendeurs, sur un marché dit secondaire.
La classification des marchés financiers
Il existe plusieurs types de marchés financiers caractérisés selon différents critères : économiques, organisationnels et par nature d'engagement.
Les marchés se distinguent au plan économique selon les titres financiers qui y sont échangés :
- le marché des actions pour le financement en capital des entreprises (y compris bancaires) ;
- le marché des obligations (marché obligataire) pour le financement des entreprises (y compris bancaires), États et collectivités par l'endettement à long terme ;
- le marché monétaire pour le financement des banques, entreprises et collectivités par l'endettement à court terme (moins d'un an) ;
- le marché des dérivés pour les couvertures de risque ;
- le marché des devises (marché des changes ou Forex)
note120 ; - le marché des matières premières et quotas de CO2.
ficheneutralite
Au plan organisationnel, on distingue les marchés qui sont organisés et les marchés de gré à gré (ou Over The Counter, OTC).
Un marché organisé est un lieu de négociation, sur lequel le mécanisme de diffusion et de confrontation des ordres d'achat et de vente est régi par des règles approuvées par le régulateur de marché (comme l’AMF en France). Une fois la transaction effectuée, une chambre de compensation (comme Euronext à Paris) garantit la bonne fin de l'opération, en veillant au respect des engagements de l’acheteur et du vendeur.
Ce type de marché offre des informations aux parties prenantes (il est transparent dans une certaine mesure) et de la liquidité, avec des règles visant à protéger les investisseurs. Quelques exemples : les bourses d’actions (New York Stock Exchange, Euronext, Tokyo Stock Exchange…), ou d'instruments dérivés (le Chicago Mercantile Exchange, où s’échangent des Contrats à terme (futures) sur matières premières, devises, taux d'intérêt, etc., Euronext Liffe, où s’échangent des options et futures sur indices boursiers, etc.).
Les marchés organisés et régulés ne sont cependant pas à l’abri de dysfonctionnements d’ensemble comme les grandes crises financières nous l’ont appris. Et ils ne sont pas non plus, au plan microéconomique, efficients (voir l'Idée reçue nº4 - Les marchés financiers seraient efficients). Comme l’a montré Robert Shiller
Dans un marché de gré à gré (ou OTC), les intermédiaires financiers sont en relation directe : ils négocient et traitent eux-mêmes les termes de la transaction. Généralement
Quelques exemples : les plateformes électroniques d’échanges de devises comme Reuters Dealing ou Electronic Broking Services, l’OTC Markets Group aux États-Unis, où s’échangent des actions d’entreprises non cotées, etc.
Enfin, on peut distinguer les marchés financiers par la nature de l'engagement pris par les parties prenantes.
- Sur le marché au comptant
note124 : l'acheteur paye le montant convenu et le vendeur livre le titre financier sous un délai qui est généralement de deux jours après la négociation. Ce n’est pas le cas cependant pour le trading haute fréquence (algorithmique), où les transactions se déroulent quasi instantanément. Le délai de règlement, en termes de livraison et de paiement, peut être proche de zéro, dans la mesure où les positions sont souvent ouvertes et fermées dans un temps extrêmement court. - Sur les marchés à terme : l'acheteur et le vendeur s'engagent pour une transaction à une date future sur un produit, une quantité et un prix convenu.
6.2 Les innovations financières et leur lien avec l’économie réelle
L’évolution du capitalisme s’est accompagnée d’innovations financières et de la montée en puissance des marchés financiers depuis les premières Bourses du 15e siècle. Une accélération considérable de cette financiarisation de l’économie s’est produite à partir des années 1970 . On peut distinguer deux grandes causes à cette accélération.
D’une part, la fin des accords de Bretton-Woods, décrétée unilatéralement par le président des États-Unis en 1971, a mis fin aux changes fixes entre les grandes devises. La réapparition de ce risque de change a engendré de la part des entreprises un besoin de couverture de risques. En réponse, les contrats à terme sur devises (futures) ont été introduits au Chicago Mercantile Exchange (CME) en 1972. C’était l’un des premiers marchés organisés permettant aux entreprises et investisseurs de se couvrir contre le risque de change. Il est assez clair que ce besoin de couverture est réel : les entreprises industrielles considèrent en général que ce n’est pas leur métier de gérer de tels risques. Elles le transfèrent à un acteur financier, agissant ainsi comme quand elles souscrivent à une police d’assurances (à la seule différence que l’assurance est souvent obligatoire).
D’autre part, les mathématiques financières ont été l’objet d’une innovation fondamentale en 1973, avec la publication de l’article The Pricing of Options and Corporate Liabilities par les économistes Fischer Black et Myron Scholes.
Brève histoire des Bourses
Une Bourse est un marché financier où s'échangent des actifs financiers, tels que des actions, des obligations, des devises ou des matières premières. Les investisseurs y achètent et vendent ces actifs pour réaliser des profits, en fonction des variations de leur valeur. Les Bourses permettent aux entreprises de lever des fonds en émettant des actions ou des obligations, et en offrant aux investisseurs une plateforme pour investir et diversifier leurs portefeuilles.
Histoire des Bourses en quelques dates
Les premières formes de Bourses remontent au Moyen Âge, avec des échanges organisés dans des villes comme Anvers ou Bruges. Cependant, c’est à Amsterdam, au début du 17e siècle, que la première Bourse moderne a vu le jour en 1602. Ce fut la première à permettre la négociation d'actions publiques, avec la création de la Compagnie des Indes Orientales, une des premières entreprises cotées en bourse. L’essor des marchés financiers a ensuite été marqué par la création de la Bourse de New York en 1792 suivie de celle de Londres en 1801.
La privatisation des Bourses
À l’origine, les Bourses étaient des entités publiques ou semi-publiques, régulées par les États pour garantir leur bon fonctionnement et leur transparence. Cependant, au cours du 20e siècle, plusieurs facteurs ont conduit à leur privatisation progressive. Dans les années 1980 et 1990, avec la montée de la mondialisation et des marchés financiers, les Bourses ont été confrontées à une concurrence accrue. Les échanges électroniques et l'essor des technologies ont permis de rendre les transactions plus rapides et moins coûteuses, ce qui a mis les Bourses traditionnelles sous pression. Les privatisations ont alors été perçues comme une solution pour accroître leur efficacité et leur rentabilité. Ces privatisations ont permis aussi aux Bourses de diversifier leurs activités et d'explorer de nouvelles sources de revenus, tout en maintenant leur rôle de place de négociation des titres financiers.
Par exemple, la Bourse de Londres a été privatisée en 1986 et est devenue une société cotée en bourse. De même, la Bourse de New York a été privatisée en 2006, après sa fusion avec le groupe Archipelago.
La Bourse de Paris
La Bourse de Paris a été fondée en 1724 sous le nom de Bourse des Marchands de Paris, principalement pour faciliter les échanges de marchandises et de titres financiers. Tout au long du 19e siècle, elle s’est développée pour devenir un centre financier majeur en Europe. En 2000, la Bourse de Paris, ainsi que d'autres places boursières européennes (comme celles d'Amsterdam, Bruxelles et Lisbonne), ont fusionné pour créer Euronext, une plate-forme boursière paneuropéenne. Cette fusion avait pour but de rivaliser avec les autres grandes places financières mondiales, comme la Bourse de Londres et la Bourse de New York, en unifiant plusieurs marchés boursiers, et en offrant une gamme plus large de produits financiers.
Euronext est ainsi devenue l’une des plus grandes bourses d’Europe, avec des marchés de titres et d’options financiers. Elle a rapidement intégré des bourses supplémentaires dans le but de renforcer sa position, comme la Bourse d’Amsterdam , celles de Bruxelles et de Lisbonne. En 2001, Euronext est devenue une société cotée en bourse. En 2007, Euronext a fusionné avec la Bourse de New York (NYSE), formant le groupe NYSE Euronext. En 2014, Euronext est redevenue une société indépendante après son rachat par l'entreprise Intercontinental Exchange (ICE), qui a repris le contrôle de la Bourse de New York, séparant ainsi les deux entités.
Les marchés financiers ont explosé en diversité, en taille et en profondeur. Vu des entreprises et des citoyens (fortunés), ils peuvent être perçus comme des apporteurs de services clés, comme vu ci-avant (apport de financement, de placement, de liquidité et de gestion des risques. Mais ils ont aussi acquis une autonomie par rapport à l’économie réelle : le trading haute fréquence, par exemple, s’est développé parce que c’était dans les intérêts des opérateurs, pas en réponse à une demande de marché. Mais c’est aussi le cas de beaucoup de produits dérivés comme le montre l'économiste et ancien trader Thierry Philipponnat dans son livre Le Capital, de l’abondance à l’utilité (Éditions de l’échiquier, 2017).
![]()
L’achat d’un produit dérivé de crédit ou de change ne génère des flux qu’entre financiers et ne peut donc être considéré comme un investissement.
Par ailleurs, nous verrons que contrairement à une idée reçue, les marchés financiers ne sont pas efficients.
6.3 Les marchés fumigènes
Non seulement les marchés financiers ne sont pas efficients, mais ils ont perdu une propriété qui, pour les économistes néoclassiques, est essentielle, à savoir le fait que le prix est une indication de rareté relative. Plus un produit (ou une matière première ou un sous-produit) est rare, plus il est cher. Plus profondément, le prix est une information considérée comme nécessaire pour la prise de décision de l’entrepreneur comme l’exprime clairement Friedrich Hayek :
C’est plus qu’une métaphore de décrire le système de prix comme une sorte de machinerie pour l’enregistrement des changements, ou un système de télécommunication qui permet aux producteurs individuels de regarder simplement le mouvement de quelques indicateurs, comme un ingénieur peut regarder les aiguilles de quelques cadrans, afin d’adapter leurs actions aux changements dont ils ne peuvent jamais savoir que ce que reflète le mouvement des prix.
Or dans des marchés très financiarisés, ce n’est pas le cas. La volatilité des prix s'accroît, ce qui brouille le signal-prix. C’est ce qu’a montré Nicolas Bouleau
1/ Les prix instantanés, ou prix spot, fournis par les marchés financiers sont très agités. Si l’on compare les prix internationaux de la laine et du coton, on voit que le prix relatif varie souvent du simple au double en l’espace de deux ans. Le prix du pétrole peut varier en période de crise de 1 à 4 en l’espace d’un mois et couramment de 50% en un an. Et comme nous l’avons montré dans une fiche sur l’élasticité-prix de l’énergie
2/ La raison de cette agitation est la spéculation, ce terme exprimant la possibilité d’achat et de revente instantanée. Imaginons en effet un marché dans lequel on soit contraint de garder ce qu’on achète un certain temps — par exemple le marché réel de l’immobilier compte tenu du délai d’inscription des actes notariés, qui est de plusieurs mois en France. Dans un tel marché, la tendance instantanée est nettement perceptible, et indiquée d’ailleurs par les agences. Le passage au temps continu (achat-revente instantanés) crée une rupture : l’agitation ou la spéculation deviennent déterminantes, en rendant les tendances invisibles ou ininterprétables.
3/ Sur un marché spéculatif, il n’est pas possible de faire apparaître des tendances : les méthodes supposées les révéler sont inopérantes. Si elles donnaient un résultat objectif, ne dépendant pas de la méthode, il serait immédiatement utilisé pour faire du profit et le prix changerait. Pire encore il existe des équipes spécialisées, munies de gros moyens informatiques, mathématiques et statistiques, sur tous les continents, qui passent leur temps à détecter la moindre possibilité d'arbitrage et parviennent à en tirer profit. Mais justement, cela met de telles lectures de tendance hors de la portée des acteurs économiques. Impossible alors pour un entrepreneur ou même un trader isolé de faire mieux que ces équipes spécialisées.
Cette caractéristique de brouillage a une conséquence très profonde en matière environnementale. Elle implique que le prix n’informe pas sur la rareté de la ressource.
Pour en savoir plus
Marchés et environnement : peut-on marchander avec la nature ?
La comptabilité d’entreprise et les comptes faits par les ménages n’intègrent pas les impacts positifs ou négatifs de notre activité sur la nature ni les services rendus par la nature
Ce simple constat peut justifier, au plan économique, la création de dispositifs pour réintégrer ces coûts et bénéfices dans la vie économique, en faisant simplement l’hypothèse non pas d’une rationalité des acteurs économiques
On peut imaginer (et constater la présence de) plusieurs dispositifs visant à prendre en compte la Nature
- des interdictions (c’est le cas des réserves naturelles terrestres ou maritimes qui interdit les activités humaines dans la zone concernée, ou de l’interdiction de la mise sur le marché de produits toxiques) ;
- des réglementations limitant des prélèvements, des déchets ou des pollutions /destructions ou demandant de les traiter (dans le cas des déchets)
note133 ou de les compenser (dans le cas des prélèvements ou des pollutions)note134 ; - une monétarisation des services et pollutions par des dispositifs de taxes, subventions, paiements pour service environnemental, ou par voie judiciaire ;
- une monétarisation par la création de marchés de droits échangeables ;
- la création de dérivés climatiques (voir encadré) ;
- une gestion communautaire des ressources naturelles (où la dimension économique est internalisée par la communauté).
Les dérivés climatiques
Un dérivé climatique est un instrument financier qui peut être utilisé pour se prémunir contre des risques liés au climat. Les dérivés climatiques sont des contrats dont les paiements dépendent, d’une façon ou d’une autre, du climat. Les sous-jacents peuvent être, par exemple, la température, les précipitations, les chutes de neige ou le brouillard, même si la température reste le sous-jacent le plus souvent rencontré.
Il est difficile de chiffrer la taille réelle du marché des dérivés climatiques (créés en 1996). Après avoir débuté dans le secteur de l’énergie, d’autres secteurs économiques, tels que le tourisme ou l’agriculture, commencent à voir les bénéfices financiers d’une couverture contre les aléas météorologiques. Les agriculteurs peuvent utiliser les dérivés climatiques pour se protéger contre de mauvaises récoltes dues à la sécheresse ou au froid ; des parcs d’attractions peuvent souhaiter se protéger contre des week-end pluvieux durant la saison estivale…
Ces produits sont techniques et plutôt coûteux et il est assez illusoire pour une entreprise de croire qu’elle s’évitera ainsi une réflexion approfondie sur ses risques climatiques, et ce d’autant, qu’en Europe, cette réflexion devrait devenir obligatoire du fait de la CSRD.
Voir https://meritis.fr/blog/les-derives-climatiques-applications-concretes et https://www.forbes.fr/business/les-derives-climatiques-une-solution-pour-les-entreprises-qui-cherchent-a-se-proteger-contre-les-risques-lies-aux-aleas-climatiques/
Ces dispositifs peuvent concerner le climat et la réduction des émissions de gaz à effet de serre (GES), l’usage de l’eau, de la forêt et des espaces naturels, tout comme les pollutions chimiques, l’extraction de ressources (les mines), etc.
Nous nous concentrons ici sur les solutions de marchés appliquées au cas des émissions de GES en discutant de leur justification, de leurs limites, et des alternatives telles que prônées dans la suite des travaux d’ Elinor Ostrom. Mais évoquons d’abord le débat au sein des économistes entre taxe carbone et quotas, qui repose tous les deux sur l’idée qu’ils comblent une défaillance de marché.
7.1 Taxe carbone ou marchés de quotas ?
On doit à Arthur Pigou
En matière climatique, la taxe carbone est l’application de ce principe. On peut évaluer son impact en matière de réduction d’émissions en évaluant l’élasticité de la consommation de produits soumis à cette taxe
On doit à Ronald Coase et à John Dale, l’idée théorique, à la fois plus audacieuse et plus discutable
7.1.1 Quel est le principe d’un marché des quotas d’émissions
C’est dans le protocole de Kyoto (négocié en 1997 et ratifié en 2005) qu’est décidée la mise en en place d’ un dispositif de quotas de CO2. Cette idée est apportée par la délégation américaine forte de l’expérience réussie de quotas de SO2.
Un marché de quotas consiste à allouer à un site industriel un plafond annuel d’émissions, de créer des quotas de CO2 échangeables, et de contraindre les industriels à acheter des quotas s’ils dépassent le plafond d’émissions sachant qu’ils peuvent en vendre dans le cas inverse. La confrontation des besoins et des excédents sur le marché permet de fixer un prix au quota. En savoir plus sur les marchés de quota CO2 dans notre fiche Neutralité et compensation carbone.
Le premier intérêt, pour les concepteurs de ce dispositif, c’est que le montant alloué permet de contrôler les émissions autorisées ; ce que ne fait pas une taxe, dont l’effet sur les quantités de pollution émises est incertain. Deux autres arguments sont mis en avant par les promoteurs de ce marché : il ne s’agit pas d’un instrument budgétaire ou fiscal, ce qui permet de ne pas soumettre les sommes correspondantes à des logiques budgétaires et fiscales. Ils décentralisent aux obligés les arbitrages à réaliser, en fonction de leurs connaissances de leurs contraintes et possibilités, ce qui est, à leurs yeux, plus efficace que toute solution centralisée.
7.1.2 Le marché européen de quotas carbone (ETS)
Cependant la raison principale du choix de l’ETS au sein de l’UE est institutionnelle : les États membres sont souverains au plan fiscal. Une taxe carbone européenne, pour être mise en place, requiert l’unanimité des membres, ce qui est impossible à obtenir en pratique. L’ETS n’avait besoin que d’une directive, qui ne nécessite que la majorité qualifiée du Conseil européen (et de ne pas être bloquée au Parlement). Dès lors, le dispositif au sein de l’UE est hybride : les émissions les plus concentrées sont soumises à l’ETS, et les autres à des taxes le cas échéant, ce qui est le cas pour la France, la Suède, la Finlande, le Danemark, les Pays-Bas et la Slovénie.
Cette situation pourrait évoluer avec l'ETS 2, prévu pour 2027, qui prévoit un deuxième marché de quotas pour les émissions du bâtiment et du logement.
Nous ne rentrons pas plus dans le détail de ces dispositifs ici, ni de leur évolution ni de leur évaluation, pour nous concentrer sur la double controverse qui anime les économistes sur ces questions.
7.1.3 Les crédits carbone et le marché volontaire du carbone : réduire ou compenser
Parallèlement aux marchés de quotas s’est développé le recours à des crédits carbone. Il s’agit de mécanisme de financement, par un acteur privé, d’actions de réduction d’émissions de GES dont il n’est pas l’origine, ni directement ni indirectement (qui ne font donc pas partie de son scope 3
Sans entrer ici dans les détails (voir notre fiche Neutralité carbone et compensation des émissions
D’une part, si ces crédits sont certifiés par des agences ou des cabinets de conseil, ils ne sont pas toujours une preuve solide d’une action efficace et durable, comme l’a notamment révélé une grande enquête publiée dans le Guardian
D’autre part les entreprises qui achètent ces crédits s’en servent, la plupart du temps, pour compenser leurs propres émissions, et du coup ne lancent pas les actions correspondantes de réduction d’émissions qui doivent pourtant être faites dans une optique d'émissions nettes nulles à terme : en effet les puits disponibles sont très insuffisants pour neutraliser les émissions actuelles. Il faut donc agir sur les deux plans.
L’argument mis en avant par les économistes c’est qu’il serait souhaitable, au plan de l’efficacité économique, de réaliser les opérations les moins coûteuses (celles qui génèrent des crédits). Cet argument ne tient que si les émissions compensées faisaient l’objet de travaux (y compris de recherche) visant à les réduire, mais ce n’est pas le cas tant qu’il est possible d’acheter des crédits peu coûteux. Elles disparaissent des radars en quelque sorte.
Tant que, via les mécanismes de marchés de crédit carbone, il sera moins cher de compenser ailleurs, que de réduire ses propres émissions, la nécessaire transformation en profondeur de l'économie n'aura pas lieu.
Les marchés de crédits carbone sont une illustration parfaite du fait que la croyance dans les marchés comme solution absolue peut avoir des conséquences néfastes pour la société.
7.2 Mécanismes de marché et biodiversité
7.2.1 Les biobanques
Aux États-Unis, certains acteurs financiers se sont penchés sur le sujet dans les années 80. C’est à cette époque que naissent les biobanques
Cette opération permet, en principe, de satisfaire les intérêts des entreprises, des biobanques, ainsi que de la Nature. En effet, en achetant des titres aux biobanques, les entreprises obtiennent des certificats de bonne conduite valorisés par leur clientèle et plus généralement les investisseurs ; les biobanques vont, elles, s’enrichir, et une espèce menacée sera théoriquement protégée.
À titre d’exemple, la biobanque Malua Bank créée en 2008, a acheté pour 34 millions d’euros, 34 000 hectares de la forêt de Sabah (île de Bornéo, Malaisie) abritant des orangs-outans dont l’espèce est menacée. La biobanque vend des certificats orangs-outans à des entreprises qui pratiquent l’extraction d’huile de palme afin que ces dernières puissent être dispensées de suspendre leurs activités destructrices. Cependant, l’huile de palme a provoqué une réelle levée de boucliers chez les défenseurs d’animaux et de l’environnement.
7.2.2 Les certificats biodiversité
Rappelons le contexte. Comme le rappellent les rapports de l’IPBES
Ces certificats visent à garantir l’intégrité et la non-additionnalité d’une action de restauration de la biodiversité.
Les problèmes révélés par les marchés volontaires de certificats carbone
- Il n’y a pas de métrique reconnue universellement en matière de biodiversité.
- Les enjeux concrets ont une beaucoup plus forte dimension territoriale et locale pour le carbone.
7.3 Les limites du signal-prix
La première controverse sur le fait de compter sur les marchés pour préserver l’environnement - que ce soit le climat ou la biodiversité - concerne l’efficacité du seul signal-prix (qu’il soit issu de quotas ou d’une taxe). Jean Tirole prix Nobel
Cette idée est dominante, au sens où elle est portée par les économistes les plus écoutés en Europe, comme Jean Tirole ou Christian Gollier. On a évoqué plus haut sa logique de base. Le raisonnement de ces économistes est plus profond ; ils considèrent que le marché est la seule organisation institutionnelle performante, car elle se fonde sur l’intérêt des acteurs dont, à leurs yeux, la confrontation conduit à une efficacité optimale, sauf cas de défaillance de marché. Le cas des émissions de GES étant reconnu comme constituant une telle défaillance, ils proposent la correction par un signal-prix et la considèrent comme nécessaire et suffisante. Ils considèrent que toute autre intervention publique (par des subventions des règlements ou autres) est nécessairement plus coûteuse (même si ces coûts sont cachés) et au fond superfétatoire.
D’autres économistes attirent l’attention sur les limites du signal-prix. Tout d’abord, sur un plan empirique, on peut constater les insuffisances suivantes :
- Le niveau du signal-prix est très difficile à calibrer correctement.
note147 - L’augmentation des prix qui découle d'un tel dispositif pèse au final sur les consommateurs, ce qui rend les citoyens hostiles à ce type de fiscalité. En d’autres termes, le rôle de l’État est plus vu comme protecteur contre les défaillances / excès des marchés (en cas de hausse des prix des énergies par exemple, l’État est sollicité pour la limiter et il est dans ce cas considéré comme légitime) que comme incitateur. L’incitation par une taxe est plutôt vu comme un impôt de plus dont l’usage échappe aux citoyens qui n’en voient que le poids. C’est l’expérience des Gilets Jaunes en France.
- Les estimations du niveau de prix à mettre en place pour, qu’à lui seul (sans autres politiques publiques), il suffise à infléchir les émissions conformément aux trajectoires de l’accord de Paris, sont très élevées par rapport au niveau actuel (par exemple 256 euros par tonne
note147-2 en France en 2030, le niveau actuel étant de 45 euros et ayant suffi à déclencher le mouvement des Gilets Jaunes). - Ce niveau de prix ne peut être indépendant du prix du sous-jacent (en l’occurrence pour la taxe carbone, le prix de l’énergie) car les consommateurs sont sensibles au prix TTC et pas au prix du carbone qui n’en est qu’une partie. L’idée d’une fiscalité élastique
note148 a été mise sur la table , en améliorant celle de la TIPP flottante, testée puis abandonnée en 2000-2002. Mais cette suggestion s’éloigne de la pureté du raisonnement économique qui fonde la taxation. - Les citoyens ne peuvent instantanément changer leur fonctionnement, surtout si cela nécessite des investissements (véhicule, moyen de chauffage etc.), et encore plus s’ils ne voient pas d’alternatives (par exemple en transport public).
- Dans les faits, l’arsenal de mesures publiques est beaucoup plus complet (information, formation, réglementations, normes, dépenses publiques, subventions…).
7.4 Une approche par le marché exclusivement ne permettra pas de décarboner de l’économie
Pour l’économiste orthodoxe Jean Tirole, il est vrai que la politologue Elinor Ostrom, prix Nobel d’économie en 2009, a montré comment de petites communautés stables sont capables, dans certaines conditions, de gérer leurs ressources locales communes sans se retrouver victimes de cette tragédie, grâce à des mécanismes informels d’incitation et de sanction.
À rebours, Elinor Ostrom a fait des propositions tirant profit des leçons apprises pour gérer les communs.
Pour en savoir plus
Le cas particulier du marché européen
Depuis la Seconde Guerre mondiale, l’Europe a progressivement créé des institutions et des règles pour construire un vaste marché intégré. Ce projet est fondé sur l’idée théorique de l’efficacité du marché mais aussi, à la sortie de la deuxième Guerre mondiale, sur l’idée du doux commerce chère à Montesquieu.
8.1 Vers le Marché intérieur : une intégration progressive
La création de la Communauté européenne du charbon et de l’acier (CECA) en 1952 vise à placer la production de ces ressources stratégiques sous une autorité supranationale, dans un objectif de paix durable entre la France et l’Allemagne. Il s’agit donc d’abord de l’expression à l’échelle européenne d’un besoin après-guerre de politique industrielle, au sens large, correspondant à l’intervention organisée par l’État pour orienter le marché vers un système productif qu’elle juge préférable, selon des critères d’utilité publique définis politiquement.
L’orientation de la construction européenne va cependant changer progressivement, pour au contraire remettre en avant le pouvoir du marché. Le Traité de Rome (1957) prolonge ainsi l’ambition de la CECA en créant le Marché commun pour éliminer les droits de douane et adopter un tarif extérieur commun. Cette intégration économique s’approfondit en 1986 avec l’Acte unique européen, qui supprime les barrières commerciales internes. L’arrêt Cassis de Dijon (1979)
8.2 Les politiques européennes de la mise en place du marché unique
8.2.1 Ouverture des marchés et politique de concurrence
Depuis 1962, en Europe
La Commission européenne dispose de pouvoirs d’enquête et contrôle aussi les fusions pour prévenir les monopoles. La direction générale en charge de cette politique (la DG COMP) est l’une des plus puissantes de la Commission. Ces règles ont conduit la Commission à faire adopter de nombreux règlements et normes politiquement souhaitables ou supposés nécessaires pour que la concurrence soit libre et non faussée.
Pour combler son déficit d’information cette bureaucratie doit coopérer avec les associations professionnelles et les représentants de la société civile (par exemple défenseurs de l’environnement) sans garantie cependant d’un traitement égal entre les différentes parties prenantes au cours d'un processus législatif complexe impliquant la Commission européenne, le Conseil des ministres et le Parlement européen.
Le Traité de Maastricht est venu renforcer les règles européennes visant à favoriser la concurrence au sein de l’UE (voir l’exemple du ferroviaire développé dans l’Idée reçue 7).
8.2.2 Libéralisation de circulation des marchandises, services et capitaux et personnes
Si la libéralisation du commerce des marchandises a été facilitée rapidement, celle des services a été plus lente en raison des réticences nationales, dues en particulier à l’attachement des pays membres aux services publics, dont certains (ferroviaire, télécom, électricité) allaient devoir s’ouvrir à la concurrence. Toutefois, des changements ont eu lieu dans les secteurs financiers, des télécommunications, et des transports. La libre circulation des capitaux, quant à elle, devient totale en 1990.
Enfin, le droit à la libre circulation des travailleurs et la liberté d’établissement, reconnus dès le Traité de Rome, sont renforcés et élargis avec Maastricht et les traités suivants. Les libertés de circulation et de séjour, élargies à tous les citoyens européens, indépendamment de leur activité professionnelle, sont inscrites à l'article 3 du traité sur l'Union européenne, et à l'article 21 du traité sur le fonctionnement de l'UE (TFUE). Elles sont aussi garanties par l'article 45 de la Charte européenne des droits fondamentaux.
8.2.3 Politiques sectorielles : agriculture, industrie, et cohésion
La Politique Agricole Commune (PAC),
Des politiques structurelles, comme le Fonds social européen (1958) et le FEDER (1975), cherchent à réduire les inégalités régionales. Les montants mobilisés ne sont pas anecdotiques : pour la période 2021-2027, l'UE prévoit de mobiliser environ 316 milliards d'euros sur sept ans pour la cohésion économique et sociale, soit environ 45 milliards d'euros par an.
À l’inverse, l’industrie est restée principalement sous contrôle national. Il faut voir là non pas une résistance des États (comme dans le cas de la libéralisation des services) mais un vrai biais idéologique. Après une période d’immédiat après-guerre de reprise en main de l’appareil industriel par ces États, la priorité a été donnée d’une manière de plus en plus marquée aux politiques de concurrence pour la distribution des produits et services, censées réduire les coûts pour les consommateurs, même si cela se traduit par des pertes d’emplois et/ou des délocalisations. Ce raisonnement est doublé de celui des avantages comparatifs de Ricardo : on ne peut pas tout faire bien, il est donc inévitable de faire faire par d’autres ce qu’on fait moins bien qu’eux. C’est toute la logique du raisonnement néolibéral, largement partagé par les autorités nationales et européennes.
Une politique industrielle
8.2.4 L’absence d’harmonisation de la fiscalité et des politiques sociales
Deux autres domaines, la fiscalité et le social, restent largement nationaux. Bien que des progrès aient été réalisés, notamment en matière de TVA et d’évasion fiscale
Dès lors, la concurrence entre les multinationales étant faussée par ces disparités, elles inversent la problématique en mettant (quand elles sont assez puissantes pour le faire) les États ou les régions en compétition. Il en résulte une course au moins-disant fiscal et social, aux effets délétères, tant au plan économique (la concurrence étant, au sein de l’Europe, plus vive que la coopération) qu’au plan politique, en termes d’adhésion au projet européen.
8.3 Le Traité de Maastricht : une nouvelle étape
En 1992, le Traité de Maastricht marque un tournant en introduisant l’Union économique et monétaire (UEM). Celle-ci conduit à la création de l’euro, régie par des critères de convergence.
En parallèle, la création du marché de quotas ETS et de directives sur l’efficacité énergétique et sur les énergies renouvelables ont conduit à une réduction des émissions des gaz à effet de serre
8.4 Défis et perspectives
Cette longue marche vers le tout-marché se heurte aujourd’hui à des réalités qui se rappellent durement à l’Union européenne. Plusieurs promesses, notamment celles qui sont explicitées dans le rapport Delors de 1989
L’UE a connu, dans les années 2010, une crise de la dette souveraine majeure. Les inégalités restent fortes entre les pays du Nord et ceux du Sud et de l’Est, où le chômage reste élevé. Si l’euro est devenu une monnaie de réserve, il reste loin du dollar et continue de pâtir de l’absence d’une politique étrangère et économique coordonnée. L’absence de politique industrielle et la perte de souveraineté des États européens sont devenues criantes, suite à la crise du COVID et aux conséquences économiques et énergétiques de la guerre en Ukraine. Certes le Green New Deal (Pacte vert en français) est une initiative majeure de la commission Van der Leyen (2019) pour faire de l’Union européenne le leader de la transition écologique. Mais ce projet bute aujourd’hui sur les volets industriels et les craintes légitimes des entreprises face à la concurrence mondiale, notamment américaine et chinoise, de plus en plus agressive. Par ailleurs le passage de critères de convergence -visant initialement à rapprocher les différentes économies nationales- à une discipline budgétaire encadrée par des règles de plus en plus complexes, affaiblit l’Union européenne. Elle fait adopter en 2024 des politiques budgétaires nationales procycliques,
Au total, les crises récentes ont mis en évidence la nécessité de politiques plus solidaires et résilientes, notamment dans les domaines de l’énergie, de l’industrie et de la défense. La situation géopolitique et les tensions avec la Chine et les USA renforcent cette nécessité. La décision de Donald Trump, début 2025, de s’allier avec la Russie, contre l’Union européenne, est un électrochoc, dont on peut espérer qu’elles sortent les Européens de leur vision, non pas naïve, mais complètement idéologique et déconnectée de la réalité des rapports de force (et de leurs liens consubstantiels avec la réalité économique).
L’Union des marchés des capitaux (UMC) et ses limites
La Commission européenne estime que l'UE a besoin de 620 milliards d'euros supplémentaires chaque année jusqu'en 2030 pour atteindre l'objectif climatique fixé pour 2030. La Cour des comptes européenne a porté ce chiffre à un trillion supplémentaire chaque année.
Des investissements importants, tant de la part du secteur public que du secteur privé, sont donc nécessaires pour financer la transition. Les rapports Letta
En résumé, l’UMC pourrait mobiliser l’épargne européenne pour financer les besoins d’investissement évoqués ci-dessus.
Mais, en l‘état, il s’agit d’une vue de l’esprit. La majorité des investissements verts ne sont pas rentables.
En savoir plus : Voir le feedback de Reclaim Finance déposé sur le site de la Commission européenne le 12 février 2025, dont s’inspire cet encadré.
Mais à ce jour, le marché unique de capitaux (UMC) reste le projet phare de la Commission.
Face aux nombreux défis du 21e siècle (climat, biodiversité, inégalités, déclin des idées démocratiques…), la réponse des dirigeants européens ne peut se limiter à une initiative relative aux marchés des capitaux et aux banques.
Idées reçues
Le profit serait le guide suprême ou le mal suprême de l’activité économique
Vue sous un angle plus politique et simplificateur, la loi du marché est souvent présentée comme la loi du profit. Les thuriféraires du marché voient dans la recherche du profit un mécanisme qui permet à l’économie d’être aussi efficace que possible. C’est le célèbre point de vue de Milton Friedman, selon lequel les dirigeants d’entreprise doivent se contenter de satisfaire les intérêts des actionnaires (donc en résumé de maximiser le bénéfice de l’entreprise, qui sert de base à la distribution des dividendes et à la valorisation des actions de l’entreprise, donc à celle du patrimoine des actionnaires). Il a été exprimé très clairement par Adam Smith :
![]()
Je n’ai jamais vu que ceux qui aspiraient, dans leurs entreprises de commerce, à travailler pour le bien général, aient fait beaucoup de bonnes choses. Il est vrai que cette belle passion n’est pas très commune parmi les marchands, et qu’il ne faudrait pas de longs discours pour les en guérir.
1.1 Commençons par définir le profit
Le profit, c’est le bénéfice d’une entreprise. Après impôt c’est, au plan juridique, la rémunération des actionnaires, qui peuvent se le distribuer en tout ou partie ou le laisser en réserve dans l’entreprise. La recherche du profit est, en général, aussi considérée comme le moteur de la croissance économique. C’est sans doute cela qui légitime le fait d’appeler profit la rémunération des actionnaires. Comment expliquer sinon que les salaires, achats et autres frais financiers, soient appelées charges alors qu’elles aussi devraient être appelées profits (puisqu’elles profitent à ces parties prenantes, comme le profit profite aux actionnaires… et qu’elles sont considérées comme telles au niveau macroéconomique, étant des composantes du PIB).
À l’inverse, la tradition marxiste considère que le profit est du vol
Il est donc utile de rappeler ici quelques évidences.
1.2 Générer du profit est indispensable à la survie des entreprises
Dans le système juridique actuel, une entreprise qui vend un produit ou un service doit dégager, à terme
Le profit est donc, dans le système juridique actuel, une condition d’existence durable, et en tout état de cause, d’autonomie de l’acteur. Des millions de TPE/PME en France sont dirigées par des petits patrons heureux de ne pas être salariés, et d’exercer leur métier de manière autonome, même si leur rémunération est faible et qu’ils risquent, en cas de faillite, de vivre des difficultés personnelles. Dans la grande majorité des cas, pour ces patrons, le profit n’est pas un but mais un moyen.
1.3 Le profit n’est pas garant d’une société juste ni d’un environnement sain
À l’inverse, il est clairement dogmatique et faux de considérer que la recherche du seul profit par les entreprises conduise à la satisfaction de l’intérêt général. On l’a vu dans les Essentiels de ce module, le libre jeu du marché (donc de la recherche du profit par les entreprises) doit être encadré pour tenir compte des éléments que les agents économiques n’intègrent pas dans leurs décisions.
Un mouvement profond s’observe en France et dans d’autres pays pour prendre en compte la responsabilité sociale et environnementale (RSE) de l’entreprise. Cette prise en compte conduit les entreprises à rendre compte à leurs parties prenantes à propos des actions qu’elles conduisent sur ses plans (avec un rapport RSE ou Développement Durable, éventuellement intégré aux rapports financiers).
Ce mouvement va clairement dans le bon sens, en cessant de concentrer l’attention des dirigeants sur le seul profit à court terme. Il a surtout l’intérêt de faire émerger des régulations (comme le devoir de vigilance) qui obligent les entreprises à intégrer les intérêts des parties prenantes dans leur décision.
À terme il est cependant insuffisant, car ce qui prime quand même toujours aujourd’hui, c’est la rentabilité du capital financier, qui peut se faire au détriment des autres capitaux (la nature et les humains). La meilleure (seule ?) manière d’intégrer convenablement la préservation de ces capitaux dans la décision du chef d’entreprise c’est de faire évoluer les référentiels comptables de sorte qu’il soit contraint de le faire.
La capacité d’autorégulation des marchés conduisant à une situation optimale aurait été démontrée scientifiquement
Les économistes essaient, depuis des décennies, de modéliser le fonctionnement des marchés, ce qui est très difficile : la formation d’un prix est un processus complexe, où interviennent de multiples facteurs (qualité des produits, rapports de force sociaux, règles juridiques et fiscales, poids relatif des institutions, concurrence entre producteurs, coût de fabrication, de commercialisation, marge demandée par les actionnaires, amortissement des investissements nécessaires, …). Il n’y a pas de commissaire-priseur
Aujourd’hui, le marché du travail pour les informaticiens, qui sont très demandés, n’a pas de rapport avec celui des employés de bureau, qui le sont moins. Le marché de la tulipe n’est pas celui du chrysanthème etc., et selon leurs localisations ce ne sont pas non plus les mêmes. En outre les marchés s’interpénètrent, changent de périmètres en fonction des innovations technologiques ; les interactions entre les différents marchés sont d’une complexité redoutable. Enfin, le domaine de l’économie n’est pas séparé des autres domaines (politiques, stratégiques, psychologiques, juridiques etc.). Pour ne prendre qu’un exemple parmi mille, il est impossible de comprendre l’évolution du pétrole sans prendre en compte la politique américaine au Moyen-Orient.
2.1 De la main invisible du marché à la théorie de l’équilibre général : l’évolution des théories classiques et néoclassiques
Adam Smith est le premier économiste à avoir tenté de faire de l’économie une discipline autonome (notamment des questions religieuses et morales). Il a également voulu trouver des lois économiques -à l’image de la physique newtonienne, qui venait de triompher- et a produit à la fois une théorie de la valeur (la valeur d’un bien est le travail qu’il a fallu fournir pour le produire), et une première justification du marché et de la concurrence. À sa suite, les économistes classiques, puis néoclassiques, ont cherché à solidifier sa vision du marché (la célèbre main invisible, même si ce terme qui donne à penser que le marché est tout-puissant et a quelque chose de magique lui a été attribué de manière abusive.
Le prix de marché devient, non plus le résultat d’un rapport de forces, mais résulte d’une loi ; il en devient le juste prix, la valeur des choses. Adieu la théorie de la valeur travail, bienvenue à une nouvelle théorie de la valeur.
Léon Walras, autre cofondateur de l’économie néoclassique, est le premier à avoir tenté de représenter mathématiquement une économie, en visant à montrer (sans y arriver) qu’un ensemble de marchés concurrentiels, où s’échangent des produits, peut atteindre un équilibre (l’offre de chaque produit (pour ce prix) égalant la demande (pour ce même prix). On doit à Gérard Debreu, prix Nobel d’économie
2.2 Derrière les équations, une vision idéologique : limiter l’intervention de l’État sur les marchés
Avant d’aller plus loin et de montrer que c’est faux (ou pour le moins simpliste, car ce résultat est dépendant de toutes les hypothèses faites explicitement ou implicitement dans le modèle mathématique), il est important de comprendre les enjeux concrets de ces travaux académiques. Les économistes classiques et néoclassiques sont persuadés que les marchés s’autorégulent : un déséquilibre (par exemple une récession, un taux de faillite élevé, un niveau de chômage élevé) ne pourrait être que provisoire et se résorberait naturellement, sauf interventions maladroites des pouvoirs publics. Cette doctrine pousse les pouvoirs publics à limiter leur intervention dans le champ économique, et à étendre le domaine accessible au marché (dans des domaines comme le numérique ou la santé, et via des privatisations d’actifs).
L’ordo-libéralisme allemand est issu de ce mouvement de pensée : aux yeux de ses partisans, l’État doit se limiter à être gardien de règles (la libre concurrence, l’équilibre budgétaire, l’indépendance de la Banque Centrale) et n’a pas à réagir pendant une récession économique (et surtout pas via des surcroîts de dépenses publiques pouvant conduire à un déficit budgétaire). Autre exemple : c’est cette croyance dans les vertus autorégulatrices du marché qui a poussé Hoover à ne pas réagir rapidement pendant la crise de 1929.
Les économistes néoclassiques s’appuient pour fonder cette croyance sur des démonstrations mathématiques qui, pourtant, ne démontrent pas du tout cette propriété. Nous nous nous limitons ici à une analyse rapide de ce sujet central, et renvoyons à la littérature critique
2.3 Les 4 principales limites de la théorie de l’équilibre général
Gérard Debreu formalise de manière très abstraite un monde économique et, dans ce cadre formel, il démontre (en collaboration avec Kenneth Arrow et Lionel MacKenzie) l’existence d’un équilibre général, ce que Léon Walras n’avait pas réussi à faire. Cette démonstration (faite au milieu des années 1950) fut considérée alors comme une avancée théorique déterminante. Elle pose pourtant quatre problèmes majeurs.
2.3.1 La représentation de l’économie de ce modèle n’a pas de lien avec la vie économique réelle.
Il suffit de lire le livre de Debreu, La théorie de la valeur (1959) pour s’en convaincre ; il s’agit de mathématiques (pas très sophistiquées
2.3.2 Les hypothèses faites implicitement ou explicitement ne sont pas vérifiées dans la réalité
Avant même de parler de vérification, il est utile de savoir quelles sont les hypothèses en question. Citons Bernard Guerrien
Nous reviendrons dans la suite sur certaines de ces hypothèses. Mais on peut rajouter à cette double liste, une hypothèse de plus. Le modèle d’Arrow-Debreu s'applique quand les biens sont décrits précisément, et que le lieu et la date de leur livraison sont aussi précisés (une baguette chez un boulanger n’est pas identique à une baguette chez un autre boulanger…)..
Il aboutit seulement alors à un système complet de prix –nécessaire pour sa démonstration- pour des contrats du type : Une tonne de pommes de terre bonnottes calibrées, livrée à Genève le 5 juin, s'il a plu moins de 85 cm en Valais depuis le 1er octobre. Il est bien évident que l’immense majorité des marchés ne sont pas complets et que les agents économiques sont incapables de tenir compte d’autant d’informations.
Cette incomplétude est bien identifiée par les défenseurs du marché, qui en déduisent qu’il est essentiel de le compléter et en font un justificatif de l’invention sans limite de la finance (et des produits dérivés), dont la fonction sociale serait précisément de conduire à cette complétude.
La concurrence libre et non faussée (ou concurrence pure et parfaite)
L’idéal théorique des économistes néoclassiques et celui des politiques de la concurrence est celui d’une concurrence pure et parfaite, dite aussi libre et non faussée.
Dans cette situation, les entreprises produisent et vendent des biens et services en fonction de leurs capacité propre (sans entente avec des concurrents et sans bénéficier de situation de rente, qui les protègerait de concurrents). Elles n’ont pas de prise sur les prix de marché, qui résultent de la confrontation d’offres et de demandes multiples.
Si cette situation ne se présente pas dans les faits de la manière généralisée que suppose la théorie de l’équilibre général, elle correspond bien à certains cas, qui montre qu’elle a des avantages. Sur le marché du village, les consommateurs sont bien contents que les prix soient limités par la concurrence et cherchent bien le meilleur rapport qualité-prix.
Sur un marché boursier, les échanges permanents sont aussi conformes à cette représentation.
Par ailleurs, les inconvénients des concentrations économiques (voir Essentiel 3.2) sont
bien identifiés : prix élevés, pouvoir économique financier et politique excessif, frein à l’innovation (qui serait le fait de nouveaux entrants).
En revanche, ce qui n’est pas assez dit, c’est que dans les industries à rendements croissants, le libre jeu de la concurrence conduit à ses concentrations (et à non à un équilibre de concurrence avec de multiples acteurs).
La critique faite à l’hypothèse de concurrence pure et parfaite dans la théorie générale n’est donc pas morale mais théorique : c’est une hypothèse qui n’est pas conforme du tout aux réalités observables. C’est aussi le cas de l'hypothèse des rendements décroissants. La vérification de ces deux hypothèses (entre autres) est indispensable pour conclure à l’existence d’un équilibre général et à son optimalité. Comme elles ne sont pas vérifiées empiriquement, on peut en déduire que la conclusion ne l’est pas non plus.
2.3.3. L’équilibre existe théoriquement, mais comment y arriver reste un mystère
À partir du début des années 1970, il devient évident qu'il n'était pas possible, dans le contexte de cette théorie, d'expliquer comment une économie, initialement hors-équilibre, pouvait converger, par une suite d'échanges réalisés hors-équilibre, vers un équilibre. En d'autres termes, on était capable de montrer l'existence d'un équilibre dans un vaste ensemble de situations mais pas d'expliquer comment une économie pouvait l'atteindre dans un cadre d'échanges libres et décentralisés. En 1974, Debreu, Mantel et Sonnenschein (voir encadré) invalident le processus proposé par Léon Walras pour décrire la convergence vers un prix de la rencontre de l’offre et de la demande, montrent qu’elle n’est en rien assurée et qu’il n’est pas démontrable qu’il y ait un unique prix.
Le théorème de Sonnenschein
La forme des fonctions d'offre et de demande sont des éléments essentiels de la théorie du producteur et de la théorie du consommateur. Dans un cadre d'équilibre partiel, il est possible de déduire du seul comportement maximisateur et d'hypothèses sur la fonction d'utilité ou sur la fonction de production, des conditions sur la forme des fonctions d'offre et de demande, par exemple le fait que la demande est une fonction décroissante du prix pour un bien normal.
Le théorème de Sonnenschein montre que de telles propriétés ne s'étendent pas aux fonctions de demande nette (différence entre demande et offre) globales issues de l'addition des offres et des demandes individuelles dans le cadre du modèle de Arrow-Debreu.
Autrement dit, la demande nette globale peut avoir, dans ce cadre, une forme quelconque. Ce qui ne met pas en cause l'existence de l'équilibre, mais son unicité et la stabilité du tâtonnement censé l'y conduire.
2.3.4 Assez curieusement le théorème d’Arrow-Debreu n’a pas cherché à représenter comment se forme le prix sur un marché
L’hypothèse (d’atomicité) selon laquelle les agents sont des preneurs de prix (price takers en anglais) est l’hypothèse centrale du modèle de concurrence pure et parfaite. Les agents ne proposent pas des prix – ils les prennent, d’où qu’ils viennent. L’hypothèse preneur de prix est souvent présentée comme valable dans le cas d’agents très petits, dont les offres et les demandes individuelles se noient dans la masse. Ce qui laisse pourtant en suspens la question centrale de savoir qui fixe les prix. Que les agents soient peu nombreux ou pas, il faut bien que quelqu'un le fasse. Ce mystère reste entier.
2.4 Malgré ses limites, la théorie de l’équilibre général influence les politiques économiques mondiales
La théorie de l’équilibre général n’est donc en rien démontrée. Pour autant, de nombreux modèles mathématiques, et au sein des institutions les plus influentes comme le FMI , la Banque Mondiale, la BCE, utilisent toujours des modèles d’équilibre général.
Pour en savoir plus
Économie de marché et démocratie iraient de pair
L’émergence du capitalisme industriel en Grande-Bretagne au 18e siècle est corrélative à celle de la démocratie occidentale. Par ailleurs, jusqu’en 2000, les pays développés étaient presque tous démocratiques. Enfin, la principale alternative politique et économique au capitalisme était, jusqu’en 1991, le communisme. Ces trois grands faits ont conduit nombre d’observateurs à considérer que l’économie de marché et la démocratie étaient consubstantiels.
D’autres arguments plus théoriques peuvent être mis en avant. La protection de la propriété privée (y compris de la propriété intellectuelle) et la liberté d’entreprendre et d’échanger sont essentielles au capitalisme (forme contemporaine de l’économie de marché). La démocratie repose, en théorie, sur la pluralité des opinions et la participation des citoyens. Symétriquement dans une économie de marché, les décisions économiques sont prises par une multitude d'acteurs (entreprises, consommateurs, investisseurs) plutôt que par un État centralisé. Ce rejet du pouvoir centralisé favorise les interactions entre les deux systèmes. C’est aussi le cas du besoin de règles claires et stables, nécessaires pour les démocraties et les économies de marché.
Pour autant, les faits ont montré que ce lien fait entre capitalisme et démocratie n’est pas solide. La Chine combine un capitalisme d’État et un régime totalitaire. L’Allemagne nazie était une dictature capitaliste.
![]()
Je suis totalement opposé aux dictatures, en tant qu'institutions à long terme. Mais une dictature peut être un système nécessaire pour une période de transition. [...] Personnellement, je préfère un dictateur libéral à un gouvernement démocratique dépourvu de libéralisme.
La Hongrie incarne elle aussi un national capitalisme autoritaire (Naca voir l’Essentiel 5.6 sur l’anarcho-capitalisme). Quant aux libertariens américains, dont le leader de fait est Donald Trump, président des États-Unis, ils sont ouvertement opposés à la démocratie et favorables à une économie de marché, sans État.
À l’inverse, certaines démocraties, comme les pays nordiques avec des modèles de capitalisme social, ou l’Autriche, pratiquent une intervention étatique importante dans l’économie, qui régule fortement le marché.
De nombreux économistes, dont le premier chronologiquement est l’historien et économiste Karl Polanyi
En résumé, si la démocratie ne peut guère se passer d’économie de marché (mais peut la réguler fortement), le capitalisme semble au contraire pouvoir fort bien s’accommoder d’absence de démocratie.
L’histoire n’est cependant pas terminée nous prévient l’anthropologue, Peter Turchin, dans son livre Le chaos qui vient. Élites, contre-élites et la voie de la désintégration politique (Le Cherche-Midi, 2025). Son analyse de 700 effondrements politiques et sociaux à travers l’Histoire montrent que le premier facteur d’effondrement est la pompe à richesses (du bas vers le haut) qui fabrique une surproduction d’élites
Pour en savoir plus
Les marchés financiers seraient efficients
C’est Eugène Fama qui a inventé en 1970 l’expression efficience des marchés
Cette théorie, dont nous développons plus en détail les limites dans notre module Rôle et limites de la finance, est depuis largement répandue. Elle est à la base de l’approche dominante dans les milieux politiques et économiques, qui consiste à vouloir limiter l’intervention des pouvoirs publics à la publication d’informations. En effet, selon les tenants de cette théorie, si les bonnes informations sont connues des marchés financiers, comme ils fonctionnent de manière efficiente, ils joueraient correctement leur rôle.
4.1 La notion d’efficience est mal définie
Cela peut paraître étrange pour une théorie reposant sur un modèle mathématique et qui a été récompensée par le prix Nobel
- L’efficience allocative
Comme l’écrit Fama : Le tout premier rôle du marché du capital est d’affecter la détention du stock de capital de l’économie. En termes généraux, l’idéal est un marché dans lequel les prix fournissent des signaux appropriés (accurate) pour l’affectation des ressources.
C’est bien la propriété centrale que les non-spécialistes attendent d’un marché : il alloue des capitaux et du travail à des projets et des entreprises ; il serait souhaitable qu’il le fasse au mieux (sans gaspillages).
- L’efficience informationnelle
Dans cette acceptation du terme efficience, les marchés financiers informent correctement les acteurs sur la valeur des entreprises : les prix sont corrects. Notons qu’il y a encore un énorme fossé à combler entre cette affirmation, à supposer qu’elle soit juste, et la démonstration que les marchés alloueraient correctement les capitaux pour que l’économie soit efficace (au sens de Pareto ?), et un dernier pas encore serait à faire pour montrer que ce soit suffisant, une économie ne se résumant pas à ses marchés financiers, d’autant moins que de nombreuses sources de financement n’y circulent pas.
- l’efficience d’arbitrage
C’est ce que Fama a formulé ainsi en 1991 : un marché est efficient (informationnellement) si une prévision profitable est impossible pour les acteurs du marché : On a rien sans rien. Dans la pratique, les institutions financières paient des arbitragistes, qui font des opérations techniques (par exemple des achats et des ventes de devises sur des plateformes différentes), destinées à assurer un gain positif ou nul de manière certaine, en profitant d'écarts temporaires de prix constatés entre différents titres ou contrats. De fait, leur action contribue à lisser/effacer les distorsions de marché. Mieux ces professionnels travaillent, moins il y a de possibilité de gains sans risque pour les autres acteurs, ce qu’on appelle l’absence d’opportunité d’arbitrage.
Eugène Fama, dans son texte de référence de 1970
Robert Shiller, déjà cité, issu du courant de l’économie comportementale
Quoiqu’il en soit et quelle que soit l’issue de ce débat académique, il n’apporte rien au débat économique central, celui qui concerne le premier sens du terme efficience. Eugene Fama a réalisé un coup de force, dénoncé et démonté minutieusement par Nicolas Bouleau
![]()
La théorie de l’efficience des marchés n’est pas fausse ou approximative, elle est un échec. Elle ne répond pas à la question posée et projette sur le sujet une brume qui brouille l’intelligence des problèmes.
Eugène Fama a réussi à faire croire que les marchés sont une instance qui permet d’allouer le capital de manière efficace, alors que sa théorie est sans rapport avec cette question politique centrale.
4.2 Au-delà de la question de sa définition, les autres critiques à la thèse de l’efficience
4.2.1 Nous ne sommes pas des homo economicus rationnels
La modélisation d’Eugène Fama repose sur une hypothèse de comportement rationnel des agents économiques qui est remise en cause par les travaux des économistes du comportement (et plus généralement par l’essentiel des travaux de psychologie sociale). Il est d’ailleurs piquant de noter que Robert Shiller, proche de cette école, a eu le prix Nobel d’économie 2013 avec Eugène Fama, précisément en contestant ces travaux grâce à l’emploi d’outils statistiques de Lars Peter Hansen (le troisième récipiendaire du Nobel).
4.2.2 L’efficience des marchés financiers est contredite par les données empiriques
Benoît Mandelbrot (mathématicien, inventeur des fractales) et, à sa suite, Christian Walter (actuaire et professeur de finance) ont montré, à partir de l’analyse de données empiriques, que l’hypothèse (utilisée dans la modélisation d’Eugene Fama, mais surtout dans la plupart des calculs financiers) selon laquelle les mouvements sur les marchés financiers obéissent à des lois de probabilité dites normales ou gaussiennes (dit autrement suivent un mouvement brownien
4.2.3 Laissés à eux-mêmes, les marchés ne sont pas au service de l’économie et de l’intérêt général
Si la question de savoir si on peut battre les marchés
C’est ce que montrent l’ampleur et la répétition des crises financières, depuis qu’ont été libérés, décloisonnés et déréglementés les marchés (le top départ ayant été donné par Richard Nixon, qui ouvrit le bal en décrochant le dollar de l’or et en ouvrant la porte aux changes flottants, souhaités par les libéraux, Milton Friedman en tête).
On comprend assez facilement que les conséquences et l’échec du communisme réel aient ôté l’envie de retourner dans un système où les prix seraient déterminés par une autorité centrale. Qu‘il faille recourir pour ce faire à des mécanismes de marché, pour toute une série de biens, cela semble acquis. Mais croire en l’infaillibilité des dits mécanismes, c’est précisément tomber dans le dogme. Les marchés, y compris les marchés financiers, ont des défaillances, de mieux en mieux répertoriées tant par la pratique que par la théorie.
Pour en savoir plus
La privatisation de la nature serait la bonne solution à la tragédie des biens communs
L ‘expression tragédie des communs est due à Garrett Hardin
C’est ce qu’on observe toujours aujourd’hui dans le domaine de la pêche, notamment dans les eaux intercontinentales, où les pêcheurs ont tous intérêt à maximiser leur pêche, sans tenir compte des actions de pêche des autres pêcheurs, ni des limites collectives qu’il faudrait respecter pour éviter une surpêche contraire aux intérêts des poissons, des écosystèmes et… des pêcheurs. C’est aussi le cas du climat : aucun d’entre nous n’a intérêt à limiter ses émissions de gaz à effet de serre, dont le total est pourtant largement supérieur aux capacités d’absorption de la nature, ce qui engendre un changement climatique potentiellement dévastateur pour la majorité d’entre nous.
Garret Hardin met en cause le caractère collectif de la propriété ; sa solution consiste à privatiser le commun, ce qui a été fait historiquement en Angleterre lors du mouvement des enclosures. Ce mouvement désigne les changements qui, du 12e au 17e siècle, ont transformé, dans certaines régions de l'Angleterre, les règles d’usage et le droit des sols. Ces règles formaient un système de coopération et de communauté d'administration des terres appartenant à un seigneur local. Les enclosures, décidées par une série de lois du Parlement, les Enclosures Acts, à partir du début du 17e siècle, marquent la fin des droits d’usage des communaux -dont un bon nombre de paysans dépendaient- pour aboutir à la privatisation des terres. Les bénéfices pour les capitalistes de l’époque ont été doubles. D’une part, ils sont devenus propriétaires des terres leur permettant d’élever les moutons, source de l’industrie textile naissante. D’autre part, ils ont pu bénéficier de l’apport d’une main d’œuvre abondante et peu exigeante, la perte des droits d’usage affamant la population.
Comme nous l'expliquons dans l'Essentiel 4, les travaux d’Elinor Ostrom ont montré, qu’au cours de l’histoire de la gestion des communs, de multiples arrangements ont été inventés, évitant ladite tragédie, et qu’au plan théorique, l’erreur d’Hardin est de faire porter à la question de la propriété ce qui est à faire porter à la question de l’accès. Un commun
Il n’est donc pas nécessaire, ni nécessairement efficace, de privatiser le commun ; la priorité est d’organiser des limites à son accès. C’est par exemple ce que font les pêcheurs de coquilles Saint-Jacques dans la baie de Saint-Brieuc.
Contrairement aux recommandations d’Hardin, les biens communs ne peuvent pas être gérés par un marché concurrentiel qui n’intègre pas, par construction, la valeur de ces communs. L’État ne le peut pas nécessairement non plus.
Il faut inventer des dispositifs institutionnels adaptés. C’est le grand mérite d’Elinor Ostrom d’avoir analysé dans le détail de tels dispositifs dans de nombreux cas différents et d’en avoir induit quelques règles générales.
Le service privé serait toujours plus efficace que le service public : exemple du secteur médical
L’agorathéisme
Le cas du domaine médical est particulièrement parlant. Avant d’aller plus loin, précisons que l’évaluation globale d’un système de santé (qui n’est pas le propos de ce module) fait intervenir un ensemble de paramètres : la qualité des soins (au plan physiologique mais aussi relationnel), l’accès aux soins (notamment des plus défavorisés), leur contrôle et régulation, la liberté de choix du patient, l’innovation et la recherche et, pour finir, son coût .
6.1 Coût, couverture, inégalités d’accès…
Dans l’édition 2019 de son rapport Panorama de la santé
Une autre étude comparant les États-Unis (majoritairement privé) et le Canada (majoritairement public), publiée dans le New England Journal of Medicine en 2003
Au Brésil, le SUS (Sistema Único de Saúde) offre des soins publics, tandis que les cliniques privées sont souvent réservées aux classes moyennes et supérieures. En Inde, le système de santé est très largement privé. Les soins sont inabordables pour une grande partie de la population. Cela pousse de nombreux Indiens vers des prestataires non agréés et non formés, mettant en danger leur santé et les exposant à des pratiques médicales abusives.
Pour conclure, il semble bien que les systèmes publics sont souvent meilleurs pour assurer une couverture universelle et pour contrôler les coûts de santé, surtout dans les soins primaires et préventifs. Les systèmes privés, quant à eux, peuvent offrir une meilleure réactivité pour certains types de soins spécialisés, mais au prix d’une augmentation des coûts et d’inégalités d’accès.
6.2 La santé : une question de justice sociale avant tout
En particulier, la France a la chance de bénéficier d’hôpitaux de très haut niveau que le monde entier envie. Il n’est certainement pas pertinent de vouloir affaiblir, voire démanteler
La privatisation des services de santé pose en outre un évident problème de justice sociale. Dans un système entièrement privé, les plus pauvres ne peuvent payer ni soins (pour eux et leur famille), ni éducation de leurs enfants. Les plus riches ont accès aux soins et à l’éducation de la meilleure qualité, ce qui contribuent à perpétuer les inégalités sociales et à créer des catégories sociales immuables. Le contraire exact du modèle républicain à la française.
Pour en savoir plus
La suppression des services publics et la fragmentation du marché seraient toujours économiquement souhaitables : l’exemple du ferroviaire
On sait que la construction européenne d’après-guerre s’est fondée, dès la signature du traité de Rome, sur le projet de création d’un marché commun, devenu plus tard unique, et simultanément, d’une politique de concurrence visant notamment à supprimer des monopoles publics.
L’État français avait sans doute une mainmise excessive sur trop d’entreprises, mais les privatisations engagées dans de nombreux secteurs ne sont pas sans poser de sérieux problèmes : création de puissants groupes privés, pouvant influencer massivement dans le sens de leurs intérêts la politique économique et sociale du pays ; perte de maîtrise de certains secteurs industriels, qu’on peut considérer comme stratégiques ; affaiblissement de la capacité à fixer un cap cohérent, voire à faire des plans stratégiques, aptitude pourtant clef pour affronter le défi écologique.
7.1 Rapide histoire de la privatisation et de l’ouverture à la concurrence du ferroviaire en France
Nous nous limitons ici à citer le cas du ferroviaire, stratégique pour la transition énergétique.
Commençons par l’histoire de sa libéralisation, impulsée au niveau européen. En 1991, la Directive européenne 91/440 introduit l'idée de séparation comptable entre l’exploitation ferroviaire et la gestion de l’infrastructure. L’idée sous-jacente, c’est que la concurrence dans l’exploitation (la circulation des trains) est souhaitable (ce qui est discutable), mais pas dans les infrastructures (réseau et gares). La France crée en 1997 le Réseau Ferré de France (RFF), séparé de la SNCF. RFF devient gestionnaire de l’infrastructure, et récupère une partie (20 milliards d’euros) de la dette de la SNCF. La SNCF conserve l’exploitation des trains. À partir de 2001, l’UE produit des paquets ferroviaires. Le premier impose l’ouverture à la concurrence du transport de fret ferroviaire. La France autorise officiellement d'autres opérateurs sur son réseau à partir de 2006. Le deuxième paquet ferroviaire (2004) vise à harmoniser les normes techniques et à ouvrir les services internationaux de fret. Des entreprises privées, comme Euro Cargo Rail, commencent à concurrencer la SNCF. Le troisième paquet ferroviaire (2007) ouvre les services internationaux de transport de passagers à la concurrence à partir de 2010 (exemple : Thalys et Eurostar, qui ensuite fusionnent). Le quatrième paquet ferroviaire (2016) finalise la libéralisation du marché ferroviaire en Europe, en imposant l’ouverture à la concurrence des services domestiques (trains régionaux et grandes lignes). La libéralisation se poursuit en France. Le gouvernement d'Emmanuel Macron met fin, en 2018, au statut de cheminot pour les nouvelles recrues de la SNCF et, en 2020, transforme la SNCF en une société anonyme, l’État restant, pour l’instant, son actionnaire unique. Depuis décembre 2019, des entreprises comme Trenitalia ou FlixTrain peuvent proposer des services commerciaux sur des lignes grandes vitesses (exemple : Paris-Lyon). Pour les services régionaux (TER), les régions peuvent attribuer des contrats à des opérateurs privés ou continuer avec la SNCF (exemple : la région Sud a attribué des contrats à Thello (filiale de Trenitalia) pour certaines lignes en 2021.
L’histoire ferroviaire est révélatrice du manque de discernement de cette politique. La politique suivie a été menée au motif de la soi-disant nécessaire libéralisation du ferroviaire, comme l’explique en détail le politiste Laurent Kestel, dans son livre En marche forcée - Une chronique de la libéralisation des transports : SNCF, cars Macron, et quelques autres (Raisons d’agir, 2018). Elle a conduit de fait à :
- réduire la part du fret ferroviaire en faveur du fret routier (elle est passée de 20% dans les années 90 à environ 10% en 2024
note220 ), avec des conséquences désastreuses au plan socialnote221 et en matière d’émissions de CO2, de congestion routière et d’équilibre des comptes de la route, les camions ne payant pas l’usure des routes à laquelle ils contribuent. - accroître la part de marché des cars et du covoiturage dans le transport voyageurs longue distance.
- réduire la maintenance et dégrader la qualité des voies (l’accident ferroviaire de Brétigny
note222 , en 2013 en étant l’une des conséquences) ; - dégrader la qualité de service et les conditions de travail.
La transition énergétique nécessiterait aujourd’hui un développement accéléré du fret ferroviaire et du ferroutage, dont les émissions de C02 par tonne de marchandise transportée sont bien plus basses que leurs concurrents routiers.
Le retard pris sera difficile à combler. Il nécessite en effet de très gros investissements. Le plan de relance
Pour en savoir plus
Il faudrait monétiser la nature pour la sauver
8.1 Les services rendus par la nature
Les travaux du Millenium Ecosystem Assessment ont caractérisé solidement la notion de services écosystémiques. Citons Wikipédia : L’Évaluation des écosystèmes pour le millénaire distingue quatre catégories de services :
- Les services d'approvisionnement sont les produits tangibles tirés des écosystèmes, comme la nourriture, les combustibles, les matériaux ou les médicaments de santé humaine et vétérinaire.
- Les services de régulation sont les avantages intangibles assurés par le bon fonctionnement des écosystèmes, comme la régulation du climat, le cycle de l’eau ou encore la pollinisation ;
- Les services socioculturels représentent les apports non-matériels de la biodiversité, obtenus à travers la relation qu'entretient l'Homme avec la Nature. [...]Ces services renvoient aux aspects esthétiques, spirituels, récréatifs, éducatifs qu'apporte la nature ;
- Les services de soutien sont ceux nécessaires à la production de tous les autres services, assurant le bon fonctionnement de la biosphère.
Cette approche par les services se discute
8.2 Évaluer la valeur des services fournis (gratuitement) par la Nature
C’est notamment dans cette optique que Pavan Sukhdev
L'Économie des écosystèmes et de la biodiversité (TEEB) est une initiative mondiale visant à "rendre visibles les valeurs de la nature". Son principal objectif est d'intégrer les valeurs de la biodiversité et des services écosystémiques dans la prise de décision à tous les niveaux. Il vise à atteindre cet objectif en suivant une approche structurée de l'évaluation qui aide les décideurs à reconnaître le large éventail d'avantages offerts par les écosystèmes et la biodiversité, à démontrer leurs valeurs en termes économiques et, le cas échéant, à saisir ces valeurs dans le processus décisionnel.
La valeur attribuée aux services écosystémiques dans ce rapport s'élèverait à un montant de 23 500 milliards de dollars. Et l’érosion de la biodiversité coûterait entre entre 1350 et 3100 milliards d'euros par an.
Les valorisations monétaires peuvent être faites en employant de nombreuses méthodes, dont nous n’allons pas rendre compte ici, en nous limitant à deux exemples.
Le service de pollinisation a été évalué dans une étude parue en 2008
Plus globalement, en 2014, une étude publiée dans Nature
8.3 Pourquoi donner un prix à l’environnement et à la biodiversité est dangereux
Pour autant cette approche n’a dans les faits aucun impact, voire est contreproductive, et ce pour trois raisons.
1. Les acteurs économiques sont peu sensibles, pour leurs décisions opérationnelles aux discours, même chiffrés. Que la destruction de la biodiversité vaille aux yeux d’un théoricien 100 ou 1000, qu’ils y croient ou non, n’a aucun effet discernable sur leurs décisions.
2. Pire, cette valeur peut leur sembler marginale. Le rapport sur la valeur de la biodiversité en France
Sur la base des études précédentes, il apparaît possible de valoriser les services des écosystèmes des zones tempérées à des niveaux allant de quelques centaines à 1000 voire 2000 €/ha par an.
Quand on a en tête que le prix moyen des terrains constructibles était de l’ordre de 90 euros/m2 en 2019
3. Les évaluations faites sont contestables. Un acteur économique a, en général, de la méfiance pour la notion, un peu éthérée à ses yeux, de valeur. Ce à quoi il croit, c’est, comme Saint-Thomas, ce qu’il voit : à savoir des transactions avec des prix. La valeur de la biodiversité n’est pas issue d’une confrontation entre un acheteur et un vendeur ; elle résulte de savants calculs qui peuvent varier fortement. Cela conduit à réduire encore leur crédibilité.
Cette faiblesse de l’effet de la monétarisation de la nature pour limiter sa destruction se rencontre de manière très évidente dans les calculs coûts-bénéfices de l’administration, qui doit faire des bilans socio-économiques des projets qu’elle lance, et tout particulièrement dans le transport. Le constat est toujours le même : la monétarisation du gain de temps permis par une route, une autoroute ou une ligne de chemin de fer (valorisé à un taux horaire fixé par des commissions officielles) est en général très supérieur à la perte économique issue d’une monétarisation des émissions de CO2 ou d’une destruction de biodiversité, avec les valeurs actuellement retenues.
Pour en savoir plus
Le chômage résulterait des rigidités introduites par le droit du travail, qui empêchent le fonctionnement optimal du marché du travail
La théorie selon laquelle un marché équilibre des échanges, au prix… d’équilibre s’applique aussi au marché du travail.
L’application de cette théorie conduit à penser que s’il y a du chômage (donc du travail offert non acheté) c’est que le prix proposé (par l’offreur, en l’occurrence le travailleur) est trop élevé, donc que le marché ne fonctionne pas librement. Ce peut être parce qu’il y a un prix minimal (le SMIC) ou des contraintes subies par les entreprises, dont le coût, pour elles, est supérieur à la valeur apportée par le travail.
C’est cette vision (simpliste et simplifiée ici
Plusieurs hypothèses faites dans cette vision du marché du travail sont clairement infondées :
- le marché en général, donc ici en particulier, n’a pas les vertus théoriques qui lui sont prêtées ; en matière d’emploi, c’est pour de nombreuses raisons (comme les questions de la compétence, de la géographie etc.)
- les travailleurs ne sont pas de simples offreurs de travail contre rémunération ; ils attendent du travail qu’il contribue à donner du sens à leur vie, de la reconnaissance, du lien social (qui ne s’achète pas), etc.
- l’offre de travail est rationnée par la mécanisation (voir notre module Travail et chômage) ; les machines sont en quelque sorte les premières concurrentes des humains et ne sont pas représentées dans ce modèle.
L’économiste John Maynard Keynes, conscient des limites de ces modèles, a abordé la question du chômage tout à fait autrement. À ses yeux, ce ne sont pas les défaillances du marché du travail qui expliquent le chômage, mais l’insuffisance de ce qu’il appelle la demande effective : les entreprises n'embauchent des travailleurs que si elles s'attendent à vendre leurs biens ou services. Si la demande anticipée est faible, elles réduisent leur production, même si elles pourraient techniquement produire davantage.
Établir un prix au carbone serait le meilleur moyen de lutter contre le réchauffement climatique
L’idée de donner un prix au carbone résulte d’un raisonnement économique simple, formalisé en premier par l’économiste anglais Arthur Pigou. Si un agent économique ne subit aucun coût pour une pollution (une externalité négative) qu’il génère, il n’a aucune raison de la réduire, voire de la supprimer. Inversement, s’il paie une taxe suffisamment élevée (ou une somme via un autre mécanisme équivalent), il aura un intérêt à agir. Il arbitrera entre payer cette taxe ou engager des dépenses pour réduire la pollution.
Ce raisonnement se comprend facilement, et l’efficacité des taxes écologiques -quand elles sont suffisamment élevées et pensées en prenant en compte ses impacts sur les inégalités- est documenté.
Pour appréhender l'intérêt de la fiscalité carbone et assimilés, deux approches sont généralement adoptées.
Selon l’approche néoclassique, les acteurs privés sont rationnels
Selon une approche plus institutionnelle, telle que développée ici, le comportement des agents économiques n’est pas bien rationnels au sens de la théorie néoclassique, même s’ils sont, bien sûr, sensibles aux signaux économiques. Les marchés, s’ils sont utiles, ne sont pas efficients, au sens de cette même théorie. Enfin, la mise en place de la taxe carbone, du fait de ses effets anti-redistributifs élevés, ne peut se concevoir sans un accompagnement économique des plus défavorisés, qui peut se faire soit par une redistribution des produits de la taxe
Dès lors, il est nécessaire d’explorer les options complémentaires et alternatives au signal-prix. Il est alors clair (et c’est ce qu’a montré le Haut conseil pour le climat dans son rapport 2019) que la puissance publique dispose de différents instruments en plus de la correction du signal-prix :
- les normes et réglementations (dont la réglementation de la publicité), voire l’interdiction ;
- la subvention et les mécanismes d’aides (prêts remboursables, crédits d’impôt, tarifs de rachat, etc.) ;
- l’information et la formation ;
- les investissements publics, notamment dans les infrastructures.
Les économistes néoclassiques affirment en général que les réglementations sont moins efficaces que le signal-prix, car elles engendrent un coût caché, qui n’est donc pas l’objet d’un arbitrage transparent. Il est vrai par exemple que les normes européennes sur les émissions de CO2 à l’échappement des voitures ont pesé sur les coûts des constructeurs automobiles. Mais, prétendre que l’alternative qui consiste à taxer au bon niveau l’essence ou le gazole consommé par les automobilistes serait plus efficace, c’est refuser de voir une réalité simple : les pouvoirs publics ne sont pas en capacité de faire admettre le niveau de fiscalité très élevé qui serait nécessaire pour avoir le même effet, et ce principalement parce qu’il serait intolérable pour une large partie des citoyens, et que des mécanismes de redistribution suffisants ne pourraient, en pratique, pas être mis en place avec l’ampleur suffisante. L’efficacité du signal-prix reste donc théorique et n’existe que dans des modèles mathématiques.
Protéger la propriété intellectuelle par des droits élevés favorise l’innovation
Un raisonnement économique élémentaire donne à penser qu’il est souhaitable de garantir à un inventeur les bénéfices de son invention. On encouragerait ainsi l'innovation, en offrant une protection économique aux inventeurs et en les incitant à innover. Ce raisonnement économique consiste à considérer qu’une innovation est la propriété privée de son inventeur, qui doit avoir l’exclusivité de son exploitation (au moins un certain temps). Ce raisonnement ne vient en général pas à l’esprit pour des connaissances scientifiques ou autres qui devraient être accessibles à tous. En un mot, on ne brevète pas un théorème mathématique. C’est pour cela que le financement public de la recherche, surtout fondamentale s’est développé. Nous sommes donc là dans une problématique bien public/commun/privé
11.1 Brève histoire de la propriété intellectuelle en Europe
La PI se traduit par des brevets, droits d’auteur, marques et autres formes de protection des créations immatérielles. Une loi pionnière apparaît à Venise en 1474
Cette convention pose les bases d’un marché de l’innovation plus large, et encourage les échanges économiques entre pays signataires. Le brevet devient un outil stratégique pour les industries européennes qui souhaitent dominer les marchés nationaux et internationaux, en limitant la concurrence et en maximisant la rentabilité des inventions.
La reconstruction économique de l’Europe après la deuxième guerre mondiale (voir Essentiel 8) fait de la PI un vecteur de compétitivité et de croissance économique. En 1973, la Convention sur le brevet européen est signée, donnant naissance à l'Office Européen des Brevets (OEB), et à un brevet unifié.
11.2 Nouveau enjeux : breveter le vivant et oeuvres numériques
La question de la brevetabilité du vivant émerge dans les années 80. Le premier organisme génétiquement modifié (OGM) date des années 1970.
Ces découvertes et événements juridiques ont ouvert la voie aux biotechnologies, et ont entraîné des débats éthiques et juridiques sur la brevetabilité du vivant
Avec l'essor des technologies de l’information et d’internet, les enjeux de la PI évoluent. Le droit d'auteur, notamment, devient un sujet majeur pour protéger les œuvres numériques, comme les logiciels, les bases de données, et le contenu numérique (dont l’utilisation pour l’entraînement des systèmes d’IA est aussi un nouvel enjeu complexe). L’Union européenne met en place des directives visant à harmoniser le droit d’auteur au sein du marché unique, comme la Directive sur le droit d’auteur dans la société de l’information (2001), qui renforce les droits des créateurs tout en favorisant l’accès au contenu numérique.
11.3 Les communs comme alternative à la privatisation de la propriété intellectuelle
La privatisation du droit de propriété en PI pose plusieurs problèmes. Premièrement, elle accorde un monopole temporaire qui peut restreindre l’accès aux connaissances et technologies, notamment dans les domaines essentiels comme la santé et l'environnement. Ensuite, en protégeant trop longtemps certaines innovations, elle peut entraver la recherche collaborative et l’innovation cumulative. Par ailleurs, les frais pour déposer, maintenir et défendre des droits de PI sont parfois prohibitifs, en particulier pour les petites entreprises et les innovateurs indépendants. Enfin elle pose deux questions éthiques : de nombreuses inventions bénéficient d’un environnement global et de toutes les connaissances accumulées antérieurement ; l’enrichissement qui est généré par les brevets, qui peut être très important, n’est pas nécessairement proportionné à la contribution individuelle de l’auteur. D’autre part, la privatisation des inventions fait que les produits et services qui en résultent sont coûteux. Dans le cas des médicaments, des brevets et des produits agricoles, ceci peut écarter des populations entières de l’accès aux soins ou aux produits de première nécessité.
L’alternative aux formes classiques (publique ou privée) de PI est le recours à une gestion collective et un partage des ressources intellectuelles sans appropriation exclusive. Il peut s'agir de biens accessibles à tous (comme des logiciels libres, des bases de données ouvertes), ou de biens soumis à des licences permissives qui favorisent le partage.
11.3.1 Propriété intellectuelle et santé
La pandémie de COVID-19 a relancé le débat sur les brevets de vaccins et les discussions autour d’une gestion en mode communs pour les innovations dans la santé publique. L'initiative C-TAP (COVID-19 Technology Access Pool), lancée par l'OMS, vise à encourager le partage des technologies de santé. On peut également citer l’ONG DNDI qui œuvre pour la diffusion de la recherche sur les maladies orphelines.
Le coût humain de breveter les médicaments
Les exemples de conséquences terribles de l’application de brevets dans le secteur de la santé sont nombreux. Citons-en deux :
À la fin des années 1990, la société américaine Myriad Genetics brevète les gènes BRCA1 et BRCA2, associés au cancer du sein et de l’ovaire. Ces brevets interdisaient à d’autres laboratoires de développer des tests diagnostiques moins chers. Le coût de ces tests était prohibitif (environ 3000$ aux États-Unis), empêchant de nombreuses femmes, en particulier dans les pays pauvres ou sans couverture santé, d'accéder au dépistage. En 2013, la Cour suprême des États-Unis a invalidé les brevets de Myriad Genetics sur ces gènes, jugeant que l’ADN naturel ne pouvait pas être breveté.
En 2006, le géant pharmaceutique Novartis attaque la loi indienne sur les brevets : celle-ci ne permet en effet de breveter que de réelles innovations et non des variantes anecdotiques de médicaments existants, créées uniquement pour prolonger le brevet et donc le monopole de l’entreprise. Novartis cherche à garder la main sur la production du Glivec, un anticancéreux. En 2013, la Cour Suprême indienne rejette définitivement les demandes de Novartis, dans un jugement clé pour protéger la production de médicaments génériques. D’après la Cancer Patients Aid Association, À la suite du jugement de la Cour suprême de 2013, le prix du Glivec est passé de 150 000 roupies (environ 2 200 $ pour un mois de traitement) à 6 000 roupies (88 $) sur le marché des médicaments génériques.
Pour en savoir plus
11.3.2 Le monde du libre : logiciels open source, licences creative commons et Open Access
Les logiciels open source, comme Linux
Dans la recherche scientifique, le mouvement pour le libre accès
Les licences Creative Commons ou le Copyleft offrent aux créateurs la possibilité de partager leur travail sous certaines conditions (comme la reconnaissance de l’auteur, l’interdiction de modifications ou l’usage non commercial), permettant ainsi une diffusion plus large tout en maintenant un certain contrôle.
11.4 Les bénéfices d’une gestion de la propriété intellectuelle comme un bien commun
Ce mode de gestion de la PI sur un mode en commun a plusieurs avantages. Ce modèle peut permettre une diffusion plus large et rapide de la connaissance, particulièrement bénéfique dans des secteurs comme la santé (ex. : partage des connaissances sur les médicaments) ou l'environnement. Il favorise l'innovation cumulative, où les acteurs peuvent s'appuyer librement sur les découvertes des autres. En réduisant la nécessité de payer des licences ou des droits exclusifs, le modèle des communs permet d'alléger les charges financières liées à la PI, ce qui est avantageux pour les petites entreprises et les chercheurs indépendants.
Cette gestion en mode commun se heurte cependant à des difficultés. Les recherches nécessitent souvent des financements publics ou des modèles alternatifs de récompense, comme des subventions, des prix ou des systèmes de dons. Une gestion collective de la PI exige des mécanismes de gouvernance clairs, pour éviter la surexploitation et garantir que les contributions de chacun soient reconnues. Sans cela, les ressources intellectuelles risquent d’être mal exploitées ou de manquer de soutien pour évoluer. Enfin, il est souvent nécessaire de trouver un équilibre entre l’ouverture (favorisant l’accès et le partage) et le contrôle (permettant une valorisation économique), notamment dans les secteurs où les coûts de R&D sont très élevés, comme la pharmacie ou la technologie de pointe.
11.5 Vers une propriété intellectuelle hybride ?
On assiste à l’émergence de modèles combinant privatisation et communs, dont voici quelques exemples.
- Certaines licences permettent un usage ouvert, tout en conservant un contrôle partiel sur les usages commerciaux, comme les licences Creative Commons avec restriction d'usage commercial.
- Des entreprises et instituts de recherche choisissent de mettre en commun certains brevets pour un usage gratuit (brevet ouvert
note251 ), à condition que cela serve des objectifs d’intérêt public, comme dans les domaines des technologies écologiques. - Systèmes de récompense alternatifs : les prix, subventions et récompenses publiques peuvent encourager l’innovation sans imposer de brevets exclusifs, comme le Prix Longitude (1714) au Royaume-Uni, qui incite à résoudre des défis d’intérêt public sans nécessairement privatiser les résultats.