Point de vue économique sur la concurrence (Pr. Christian Bialès)

Pour (éventuellement) citer cette étude :
Christian Bialès, Point de vue économique sur la concurrence, Revue Concurrentialiste, Mai 2013

************

Cet article est publié dans le cadre du colloque en ligne organisé par Le Concurrentialiste et intitulé « Le droit de la concurrence et l’analyse économique ». Un document PDF regroupant l’ensemble des articles présentés dans le cadre de ce colloque est disponible au lien suivant : lien

———–

1. Dans son Dictionnaire de l’économie politique, Charles Coquelin, qui a vécu pendant la première moitié du 19ème siècle, écrit : « On ne défend pas le soleil, quoiqu’il brûle parfois la terre qu’il devrait seulement éclairer et chauffer : il ne faut pas non plus défendre la concurrence, qui est au monde industriel ce que le soleil est au monde physique. La tâche de l’économiste est seulement d’en expliquer l’action dans la sphère industrielle, et d’en exposer les merveilleux effets. C’est la meilleure défense qu’on puise en faire et c’est la seule qui lui convienne ». Comme beaucoup de ses collègues, à l’instar de Frédéric Bastiat, qui a d’ailleurs collaboré avec lui au « Journal des économistes », Charles Coquelin est un économiste libéral qui prépare en particulier les thèses de l’école économique autrichienne qui fait l’apologie du marché et qui constitue l’une des matrices fondamentales du libéralisme économique.

2. C’est en tant qu’économiste d’aujourd’hui, plus circonspect, que nous étudions ici la concurrence, et successivement sous deux angles : l’économie politique de la concurrence d’abord, pour présenter l’analyse fondamentale que fait la science économique de la concurrence, comparée aux autres structures de marché, puis la politique économique de la concurrence, c’est-à-dire les différentes politiques de défense de la concurrence, dans le but de protéger les intérêts des consommateurs et le bien-être collectif.

I. L’économie politique de la concurrence

3. En économie, le terme de concurrence renvoie aux termes de compétition et de marché. Et celui de marché conduit à celui de capitalisme : le marché est né bien avant le système capitaliste, mais il est l’institution centrale de ce système économique ; avec la monnaie.

4. La définition du marché pose essentiellement une question de périmètre : par exemple, veut-on traiter du marché du charbon en particulier ou du marché de l’énergie en général ? Dans un cas, on a affaire au marché d’un seul bien, homogène ; alors que dans l’autre, le marché porte sur des biens différenciés et substituables, mais qui répondent au même type de besoins et qui ont donc des interactions limitées avec le reste de l’économie. Alors que la première version est celle de l’analyse microéconomique, la seconde est plutôt celle de l’économie industrielle et correspond à la notion de « marché pertinent » qu’adopte d’ailleurs la Commission européenne : le marché pertinent comprend tous les biens et/ou services qui sont, en raison de leurs caractéristiques, de leur prix et de leur usage habituel, substituables à la fois au niveau de la demande et au niveau de l’offre.

5. On établit souvent un lien direct entre économie de marché et libéralisme économique : c’est ainsi que des auteurs libéraux comme F. Hayek (de l’école autrichienne) tentent de démontrer la supériorité technico-économique du marché en ce qu’il permet à la fois la liberté individuelle et la prospérité collective. On retrouve aussi ce lien dans les thèses des économistes libéraux, d’abord classiques, résumées dans la loi de Say, puis néoclassiques, celles de l’équilibre général, avec le système « walraso-paretien » et le modèle d’Arrow-Debreu. Mais il faut se garder d’établir un lien entre le libéralisme économique et la non-intervention de l’État. Pour deux raisons fondamentales. D’abord, parce qu’il ne peut pas y avoir d’économie de marché sans État de droit : le marché a en particulier besoin d’un cadre légal pour que les transactions soient régies par des règles du jeu et que soit protégé le droit de propriété. Il faut que les activités économiques soient encadrées, encastrées dans des règles et des institutions juridiques. Ensuite, pour que le marché fonctionne selon les principes de la « concurrence libre et non faussée », pour reprendre l’expression européenne, il faut un « État-gendarme » qui surveille et sanctionne les mauvaises pratiques. Au total, dans une économie de marché, le marché s’appuie ainsi nécessairement sur les « fonctions régaliennes » de l’État, qui, rappelons-le, ne concernent pas uniquement la sécurité intérieure et extérieure, mais aussi la justice et le droit, dans ses différents compartiments, le gouvernement et l’administration, et les infrastructures publiques ; et on peut y ajouter le pouvoir de « battre monnaie ». D’ailleurs, le cadre légal et la monnaie sont les deux institutions fondamentales de l’économie de marché : le cadre légal encadre et sécurise les échanges et la monnaie facilite les échanges en évitant les inconvénients du troc et en pacifiant et socialisant les transactions.

6. L’analyse économique distingue la concurrence « pure et parfaite » et la concurrence imparfaite. La concurrence pure et parfaite (CPP) est le modèle « idéal » en ce double sens qu’il s’agit d’une construction théorique fondée sur des hypothèses très restrictives (atomicité de l’offre et de la demande, liberté d’entrée et de sortie, homogénéité du produit, information parfaite, mobilité parfaite des facteurs de production, divisibilité parfaite des facteurs et des produits, rationalité absolue des acteurs, absence d’externalités, agents preneurs de prix), et que les tenants de l’économie « libérale » préconisent que les économies concrètes s’en approchent le plus possible pour que le bien-être soit maximal (maximisation du « surplus collectif »). On est au contraire en concurrence imparfaite dès lors qu’au moins une des conditions de la CPP n’est pas réalisée. L’analyse économique repère essentiellement deux formes de concurrence imparfaite : la concurrence monopolistique et la concurrence oligopolistique.

7. Dans la réalité, il existe certes des marchés qui se rapprochent du modèle de la CPP, comme ceux des devises, des actifs financiers, des matières premières et des produits agricoles, mais la plupart des marchés de biens et services et le marché du travail sont des marchés de concurrence imparfaite.

8. Un cas particulier de marché est celui du monopole. En analyse économique, on parle de monopole « pur » quand l’unique offreur est sûr de rester constamment seul parce qu’il est protégé par des barrières à l’entrée infranchissables et que n’existera jamais de produit substituable à celui qu’il fabrique. Mais il n’en est pratiquement jamais ainsi dans la réalité puisque, même dans la situation particulière des « monopoles naturels » (voir plus loin), le monopoleur peut toujours craindre l’arrivée de concurrents potentiels. Plus précisément, tout est une question de « menace crédible » : crédibilité de la menace d’un entrant potentiel pour venir disputer, contester, la part de marché du monopoleur en place, et crédibilité de la menace du monopoleur pour faire échec à toute entrée éventuelle, ce qui correspond au degré d’efficacité des barrières à l’entrée. On comprendra aisément que la théorie des jeux soit particulièrement utile pour présenter les stratégies de menace. Et comme le montre la théorie des marchés contestables, développée en 1982 par W. Baumol, J.C. Panzar et R.D. Willig, il apparaît que la liberté d’entrée / liberté de sortie est une hypothèse très importante pour que l’on ait concrètement affaire à des « marchés concurrentiels ». Rappelons à ce sujet que la liberté d’entrée est d’autant plus grande qu’est grande aussi la liberté de sortie en ce sens qu’une entreprise hésitera d’autant moins à pénétrer un marché que les coûts d’une sortie éventuelle ne sont pas irrécupérables.

9. Selon l’analyse économique, plus le marché est concurrentiel et plus « le consommateur est roi ». Et au contraire, moins le marché est concurrentiel et plus « la filière est inversée », comme disait J.K. Galbraith : ce sont les entreprises qui maîtrisent alors le marché. En effet, la concentration industrielle puis la multinationalisation des firmes, en recherche permanente d’économies d’échelle, ont donné aux producteurs et distributeurs, de même d’ailleurs qu’aux institutions financières, un pouvoir de marché de plus en plus grand : le pouvoir de marché, appelé aussi « pouvoir de monopole », se définit pour une entreprise par la possibilité qu’elle a de se comporter durablement de manière différente que si elle était en CPP, toutes choses étant égales par ailleurs. Ces acteurs du marché ne sont pas « preneurs de prix », comme cela est théoriquement le cas en CPP, mais des « faiseurs de prix ». Et le pouvoir de marché d’une entreprise est d’autant plus important qu’est grande sa marge de manœuvre en matière de fixation du prix : ce pouvoir de marché tient dans la possibilité de fixer un prix plus ou moins élevé par rapport au coût marginal de production, cet écart entre prix et coût marginal étant un bon indicateur tout à la fois du pouvoir d’action du monopoleur et du degré d’inefficacité du monopole (par rapport à la CPP). C’est pourquoi il est évalué par l’indice de Lerner, qui est en quelque sorte un taux de marge bénéficiaire, puisqu’il est égal au pourcentage par rapport au prix de vente que représente l’écart entre ce prix de vente et le coût marginal (le pouvoir de marché est certes la dimension principale du pouvoir économique d’une entreprise, mais pas la seule : il y a aussi le pouvoir économique « hors marché » qui correspond à la possibilité de l’entreprise d’influencer son environnement, comme par exemple le contexte réglementaire de son activité). On peut montrer qu’il existe tout logiquement un lien entre l’indice de Lerner et l’indice d’Herfindahl-Hirschmann qui mesure de son côté le degré de concentration d’une branche économique. Grâce à leur pouvoir de marché, les firmes faiseuses de prix ont la possibilité d’accumuler un copieux super-profit, c’est-à-dire une véritable rente.

10. Au contraire, l’équilibre est à l’avantage des consommateurs lorsque la loi de l’offre et de la demande joue librement, ou lorsque l’élasticité de la demande par rapport au prix est forte, ou lorsque le nombre d’entreprises présentes sur le marché est relativement important, ou lorsque, même si le nombre d’entreprises n’est pas très élevé, il y a de fortes interactions entre elles (cas des « oligopoles de combat » c’est-à-dire non coopératifs, mise à part la situation de l’oligopole de Sweezy dont l’équilibre est relativement stable), ou encore lorsque la concurrence se fait directement par les prix comme dans le « duopole de Bertrand » par opposition au « duopole de Cournot » qui est une concurrence par les quantités. On parle d’ailleurs du paradoxe de Bertrand dans la mesure où, quand les deux entreprises ont des coûts identiques, l’équilibre de ce duopole rejoint celui du marché de CPP, caractérisé en particulier par l’annulation des super-profits des firmes ; par contre, quand les coûts des deux entreprises sont différents, on montre que l’équilibre du duopole de Bertrand se ramène au contraire à celui du monopole, mais avec un prix relativement faible parce qu’il y a contestabilité du marché.

11. En se rappelant que l’économie concerne la réalisation du bien-être matériel des individus dans les meilleures conditions possible, l’analyse économique montre que les marchés concurrentiels sont plus satisfaisants que les marchés où les entreprises détiennent un fort pouvoir de marché. On dit qu’un marché de CPP est optimal alors qu’un marché de monopole est sous-optimal, et doublement : non seulement, le monopole entraîne une « perte sèche » (ou « charge morte ») par rapport à la CPP puisque le prix est plus élevé et la quantité écoulée plus petite, mais en plus le monopole fait supporter à la collectivité des coûts sociaux supplémentaires du fait que le monopoleur peut mettre en œuvre une stratégie de « captage de rente » pour renforcer son pouvoir de marché, en engageant par exemple des dépenses de lobbying pour protéger son marché ou une stratégie d’augmentation excessive de ses capacités de production pour décourager tout concurrent potentiel, c’est-à-dire des dépenses qui sont toutes socialement improductives.

12. Assurer une bonne « concurrentialité » d’un marché, c’est donc œuvrer dans l’intérêt des consommateurs parce que c’est d’elle dont dépendent des prix bas, des produits de bonne qualité et en quantité suffisante, un choix important, tout cela imposant aux producteurs réactivité et même proactivité, compétitivité et donc innovation (notons cependant que les analyses théoriques sont indécises sur la relation entre capacité d’innovation et degré de « concurrentialité » du marché).

13. La concurrence est souvent vécue par les entreprises comme une contrainte et comme une limitation à leurs possibilités de profit : elles vont donc adopter des stratégies pour limiter la concurrence et même pour y échapper en recherchant les moyens d’affirmer d’une manière ou d’une autre le pouvoir de marché le plus important possible.

14. On comprend alors que les pouvoirs publics soient amenés à intervenir pour protéger les consommateurs de ces stratégies d’entreprises qui peuvent nuire au bien-être individuel en mettant en cause aussi l’optimum social et l’allocation optimale des ressources. On retrouve en cela le premier objectif qu’assigne Richard Musgrave à la politique économique, à savoir l’amélioration de l’allocation des ressources, les deux autres étant la répartition des richesses et la régulation du niveau d’activité économique.

15. Concernant l’allocation des ressources, on peut dire que l’intervention étatique se justifie pour deux raisons : d’une part, le marché peut être insatisfaisant dans son fonctionnement et d’autre part il peut être carrément incompétent dans la satisfaction de certains besoins, pourtant essentiels à la réalisation du bien-être matériel.

16. Cette deuxième raison s’explique par le fait que le marché n’est compétent que dans la fourniture de biens suffisamment divisibles et qui peuvent donc faire l’objet d’une appropriation privée par le paiement direct d’un prix (c’est pourquoi ces biens sont qualifiés de privatifs et de marchands). Rappelons au passage qu’un bien est divisible quand on peut le diviser en quantités aussi petites que l’on veut sans pour autant nuire à ses qualités intrinsèques. L’État doit donc assurer la production et la distribution des biens totalement ou très indivisibles : ce sont les biens collectifs, que certains appellent aussi biens « publics », qui sont aussi non marchands (ils ont certes un coût, mais pas de prix ; le coût est couvert grâce aux prélèvements obligatoires). Il faut qu’il gère également les externalités : on appelle externalité l’effet –positif ou négatif- qu’a le comportement d’un agent sur au moins un autre et qui reste hors marché en ce sens qu’il n’entre pas dans la mécanique des prix, l’exemple le plus évident étant celui de la pollution. Les biens publics et les externalités sont les principales « défaillances » du marché. Ainsi, les pouvoirs publics suppléent-ils le marché lorsque celui-ci est incompétent. Notons que la catégorie des biens publics comprend non seulement ceux qui sont totalement ou très indivisibles, mais aussi ceux qui produisent des externalités suffisamment importantes pour que les pouvoirs publics décident de les prendre en quelque sorte en tutelle, d’où leur nom de biens « tutélaires », comme c’est le cas dans les domaines de l’éducation, de la culture, de l’aménagement du territoire, de la défense de l’environnement et de la santé. On qualifie aussi ces biens de « méritoires » ou de « déméritoires » selon que les externalités concernées sont positives ou négatives.

17. Mais revenons à la première raison qui justifie l’intervention étatique : lorsque le marché est capable de fournir les biens et services susceptibles de répondre aux besoins des agents économiques, il se peut qu’il ne le fasse pas dans les meilleures conditions du point de vue de la collectivité, donc de manière non optimale. Le rôle des pouvoirs publics est alors de corriger les insuffisances du marché, d’en supprimer les dysfonctionnements. Et la principale insuffisance, le principal dysfonctionnement, correspond précisément à tout ce qui touche au degré de « concurrentialité » du marché : dès lors qu’une ou plusieurs entreprises jouissent d’un pouvoir de marché qui entraîne un coût social jugé excessif, en particulier en termes de bien-être des consommateurs, les pouvoirs publics sont en droit d’intervenir pour remédier à cette situation préjudiciable à l’intérêt général. Signalons au passage ici que la défense économico-juridique des intérêts des consommateurs se traduit par deux principaux types de politiques étatiques : le droit de la concurrence, dont il est question dans cet article, et le droit de la consommation. Cela dit, d’autres dysfonctionnements de l’économie de marché ne manquent assurément pas de se manifester, mais ils entraînent alors des politiques correctrices dans les deux autres champs d’intervention étatique de la trilogie de Musgrave, celui de la redistribution et celui de la régulation macroéconomique.

18. Pour conclure cette partie, voici un schéma qui positionne très simplement les principales structures de marché les unes par rapport aux autres :

Le Concurrentialiste Pr Bialès

II. La politique économique de la concurrence

19. Les interventions des pouvoirs publics peuvent prendre deux formes que l’on pourrait qualifier, par commodité, de conjoncturelles et de structurelles, pour reprendre une dichotomie chère aux économistes.

20. Par interventions conjoncturelles, nous entendons toutes celles qui ont pour but de corriger un état de fait dans le but de l’améliorer rapidement ; et par interventions structurelles, toutes celles qui ont pour but de réformer en profondeur les structures économiques en cause, avec le délai de réalisation que cela suppose, pour qu’elles répondent mieux aux objectifs poursuivis.

21. En matière de concurrence, les interventions publiques « conjoncturelles » consistent à surveiller le fonctionnement des marchés et à sanctionner éventuellement, dans le but de lutter contre les différentes pratiques anticoncurrentielles. Pour cela, il faut :

  • lutter contre les ententes qui feraient que la concurrence devient déloyale : politiques I-1 ;
  • éviter les abus de position dominante : politiques I-2 ;
  • empêcher les stratégies prédatrices : politiques I-3.

22. En matière de concurrence, les interventions publiques « structurelles », consistent à faire en sorte que la concurrence soit bel et bien à la base des processus économiques, puisque l’on fait l’hypothèse qu’elle est la condition fondamentale de leur efficacité. Pour cela, il faut :

  • contrôler les concentrations et les fusions et accords de même genre pour que cela n’aboutisse pas à donner à une entreprise un pouvoir de marché excessif et que cela nuise alors aux intérêts des consommateurs : politiques II-1 ;
  • éviter les distorsions de concurrence que peuvent entraîner notamment les aides publiques aux entreprises : politiques II-2 ;
  • organiser la libéralisation des monopoles publics, fréquents dans les industries de réseaux : politiques II-3 ;
  • réglementer les monopoles : politiques II-4 ;
  • lutter contre les asymétries d’information : politiques II-5.

23. Sur le plan juridique et pour ce qui concerne la France, les interventions I et II -1 à 3 sont prévues par le droit communautaire tandis que d’autres sont propres au droit national. Nous laissons aux juristes le soin d’évoquer les deux questions que cela soulève selon nous, celle du contenu des interventions et celle de leur mise en œuvre, avec en particulier le problème de la répartition des compétences quand il s’agit d’appliquer les règles européennes.

24. Les politiques II-4 et II-5 sont dans le prolongement logique des raisonnements faits dans le cadre de la théorie des marchés et des prix.

25. À l’occasion de la présentation que nous allons faire des différentes dimensions de la politique de concurrence, on complétera les éléments de l’économie politique de la concurrence abordés dans la partie précédente.

Politique I-1 :

Ces politiques ont pour objectif de prohiber toute forme d’entente anticoncurrentielle.

26. Juridiquement, elles sont précisées dans l’article 101 du Traité sur le fonctionnement de l’Union européenne (TFUE) pour ce qui concerne le droit communautaire et dans les articles L 420-1 à L 420-6 du Code de commerce. Les deux droits visent toute forme de pratique anti-concurrentielle, en ce sens qu’ils prohibent tout comportement délibéré que les entreprises peuvent adopter pour empêcher, restreindre ou fausser le jeu de la concurrence. La liste qu’en dresse l’art. 101 du TFUE, dans son paragraphe 1, est la suivante :

  • « fixer de façon directe ou indirecte les prix d’achat ou de vente ou d’autres conditions de transaction,
  • limiter ou contrôler la production, les débouchés, le développement technique ou les investissements,
  • répartir les marchés ou les sources d’approvisionnement,
  • appliquer, à l’égard de partenaires commerciaux, des conditions inégales à des prestations équivalentes en leur infligeant de ce fait un désavantage dans la concurrence,
  • subordonner la conclusion de contrats à l’acceptation, par les partenaires, de prestations supplémentaires qui, par leur nature ou selon les usages commerciaux, n’ont pas de lien avec l’objet de ces contrats. »

27. Même si l’art. 101 du TFUE et l’art. L. 420-1 du Code de commerce semblent privilégier les ententes “horizontales”, c’est-à-dire entre entreprises concurrentes, la jurisprudence prend tout autant en considération les ententes “verticales” comme celles qui peuvent exister entre les producteurs et les distributeurs.

28. Les deux articles font par ailleurs clairement la différence entre les ententes qui sont anticoncurrentielles, donc illicites, et les ententes qui se justifient. Le paragraphe 3 de l’art. 101 du TFUE le précise bien :

« Toutefois, les dispositions du paragraphe 1 peuvent être déclarées inapplicables :

  • à tout accord ou catégorie d’accords entre entreprises,
  • à toute décision ou catégorie de décisions d’associations d’entreprises et
  • à toute pratique concertée ou catégorie de pratiques concertées qui contribuent à améliorer la production ou la distribution des produits ou à promouvoir le progrès technique ou économique, tout en réservant aux utilisateurs une partie équitable du profit qui en résulte, et sans :
  • imposer aux entreprises intéressées des restrictions qui ne sont pas indispensables pour atteindre ces objectifs,
  • ni donner à des entreprises la possibilité, pour une partie substantielle des produits en cause, d’éliminer la concurrence. »

29. On peut certes faire remonter les premiers grands textes contre les ententes à la Révolution française et au Premier Empire, avec la loi Le Chapelier qui interdit en 1791 les corporations des métiers puis avec l’article 419 du Code pénal de 1810 qui prohibe les coalitions dont le but est de manipuler les prix, mais ce sont les États-Unis qui ont été pionniers en matière de lois anti-trust quand, en 1890, ils ont pris le « Sherman Antitrust Act » qui rend illégal « tout contrat ou toute entente ou toute autre forme de conspiration ayant pour effet de restreindre le commerce (…) ou tout monopole ou toute tentative de s’entendre (…) pour monopoliser le commerce ». En 1914, le « Clayton Act » complète le texte de 1890 en précisant les activités interdites, et le « Federal Trade Commission Act » (amendé en 1938 puis en 1973 et 1975) crée la Federal Trade Commission pour appliquer le droit de la consommation et pour lutter contre les trusts (la Commission de Bruxelles est l’équivalente pour l’Europe de la Federal Trade Commission aux États-Unis). Deux autres lois compléteront par la suite la législation anti-trust : la loi de Wheller-Lea en 1938 et la loi de Celler-Kefauver en 1950. Le fait que les lois anti-trust soient nées aux États-Unis est significatif de l’importance du rôle des pouvoirs publics dans l’économie de marché dans la mesure où le capitalisme qui s’est développé après la guerre de Sécession a été un capitalisme sauvage où régnait la loi du plus fort. Ce fut certes une « période dorée », dopée d’abord par les besoins de la reconstruction puis par les nouvelles technologies de la seconde révolution industrielle. Mais ce fut aussi l’occasion pour les grands entrepreneurs de l’industrie et de la finance de bâtir des fortunes au détriment des consommateurs en augmentant sans cesse leur pouvoir de marché, d’où l’expression des « barons voleurs ». Le cas de John Davison Rockfeller est exemplaire de ce point de vue. Rappelons que c’est lui qui a créé la Standard Oil en 1870, firme qui a joui très vite du statut très enviable sur le plan économique de (quasi) double monopole grâce à des stratégies à la fois d’intégration horizontale et de concentration verticale. Face à ce pouvoir exorbitant des « barons voleurs », deux points de vue opposés s’affrontèrent parmi les économistes de ces années de la deuxième moitié du 19ème siècle et ce débat est devenu depuis permanent : il y a eu ceux que l’on pourrait qualifier de « darwiniens » puisqu’ils considéraient qu’il ne fallait pas intervenir, que le pouvoir de marché de certaines entreprises s’expliquait par leurs bonnes performances et qu’un jour ou l’autre, grâce en particulier à l’innovation, d’autres prendraient leur suite. Et d’autres économistes considéraient au contraire qu’il fallait un interventionnisme étatique pour fixer des règles minimales au jeu concurrentiel.

30. Dès sa section 1, le Sherman Antitrust Act interdit toute forme d’entente qui limite la liberté du commerce, y compris les ententes implicites, en particulier les « conduites parallèles » comme celle qui consiste pour une firme à imiter systématiquement la politique de prix d’une autre. Dans sa section 2, le Sherman Antitrust Act condamne tout monopole et toute action tendant à constituer un monopole. C’est en application de ce texte, et de la jurisprudence qui a suivi, qu1911 la Standard Oil sera démembrée en 33 sociétés indépendantes.

31. En économie, il est clair que la situation de CPP est la situation idéale du point de vue du consommateur alors que celle du monopole est la situation idéale du point de vue du producteur. Il est facile d’en déduire que les entreprises en situation de concurrence imparfaite cherchent des stratégies pour se rapprocher le plus possible de la situation de monopole qui est idéale pour elles.

32. L’analyse économique distingue deux sortes de concurrence imparfaite : (i) la concurrence monopolistique et (ii) la concurrence oligopolistique.

33. L’expression de concurrence monopolistique (i) est curieuse puisqu’elle juxtapose deux termes a priori antinomiques. Pourtant, il suffit de les expliquer successivement pour comprendre cette structure théorique de marché : puisqu’il y a concurrence, cela signifie qu’il y a de nombreuses entreprises sur le marché, avec liberté d’entrée et liberté de sortie, et chacune de ces entreprises cherche à se rapprocher d’une situation de monopole –et c’est en cela que la concurrence est « monopolistique »- en se différenciant au maximum des autres pour limiter le plus possible le degré de substituabilité de ses produits par rapport à ceux des concurrents. Comme la différenciation concerne en priorité les produits, cette concurrence n’est pas « parfaite » puisque l’hypothèse d’homogénéité des produits n’est pas respectée. Chaque entreprise jouit ainsi d’une position de monopoleur sur un créneau déterminé, dans une niche spécifique, mais toujours temporairement puisqu’il y a liberté d’entrée et liberté de sortie. Beaucoup de marchés concrets sont de concurrence monopolistique, à commencer par les commerces de détail qui se différencient d’abord par leur localisation, mais aussi par les nombreux services qu’ils offrent à leur clientèle. On trouve également de la concurrence monopolistique dans tous les secteurs où il est assez facile de créer des produits nouveaux, comme celui des produits d’hygiène et de cosmétique.

34. La concurrence oligopolistique (ii) se caractérise par un petit nombre d’offreurs présents sur un marché protégé plus ou moins efficacement par des barrières à l’entrée. Le premier auteur à avoir étudié les barrières à l’entrée est l’américain J.S. Bain, en 1956. Les barrières à l’entrée peuvent être « naturelles » ou « stratégiques ». Elles sont « naturelles » quand elles sont juridiques (dispositions légales diverses comme l’agrément, le numerus clausus…), technologico-juridiques (brevets, licences, accès exclusif à une ressource ou à une technologie), ou encore économiques (avantages absolus de coûts, économies d’échelle, économies de variétés, économies d’apprentissage, besoins importants de capitaux et relative facilité d’accès aux circuits de financement). Les barrières à l’entrée sont « stratégiques » quand elles résultent de stratégies délibérées menées par les entreprises pour empêcher l’entrée de tout concurrent supplémentaire, dites stratégies de dissuasion : stratégies de pression sur les pouvoirs publics, stratégies d’intimidation, stratégies industrielles et commerciales comme la fidélisation de la clientèle avec d’importants budgets de publicité, le prix limite, la fragmentation du marché, l’excès de capacité ou encore la prolifération des marques et variétés proposées. Ainsi, ce sont trois hypothèses fortes de la CPP qui sont ici contredites : celles d’atomicité, de liberté d’entrée/sortie et d’homogénéité des produits. L’exemple typique de concurrence oligopolistique est celui du secteur automobile.

35. Quand une entreprise est ainsi en concurrence avec quelques entreprises seulement, en dehors de la différenciation de son produit, deux types extrêmes de stratégies peuvent la rapprocher de la situation de monopole : soit des stratégies offensives pour éliminer les concurrents, soit des stratégies d’entente et de collusion pour faire, à la limite, comme si on formait avec les concurrents un monopole pour s’en partager le super-profit. On parle dans le premier cas d’oligopole de combat, totalement incoordonné et non coopératif, et dans le second d’oligopole totalement coordonné et coopératif au point de constituer un « cartel ». Et on a entre ces deux formes extrêmes toute une variété de situations intermédiaires où les ententes implicites ne sont que partielles (par exemple, sur le prix seulement ou sur les quantités produites ou sur les parts de marché). Comme il est très souvent difficile de détecter les ententes, le droit communautaire et le droit national français emploient la procédure de clémence qui consiste à assurer un traitement de faveur aux entreprises qui dénoncent l’existence d’une entente et qui coopèrent pour la mise en œuvre de la procédure. Cette politique des pouvoirs publics, qui encourage ce que l’on peut qualifier de « délation économique », est une illustration d’une stratégie d’incitation pour lutter contre les ententes qui sont un aléa moral très préjudiciable à la concurrence, laquelle doit être considérée comme un bien public. Mais d’un autre côté, la procédure de clémence peut avoir un effet complètement pervers : elle peut paradoxalement encourager la formation d’ententes puisque les entreprises savent qu’elles pourront toujours recourir à cette procédure pour éviter les sanctions de l’Autorité de la concurrence.

36. Étant donné l’importance prise dès le 19ème siècle par la structure oligopolistique dans le monde des affaires –ce qui traduit le passage d’un capitalisme « atomistique » fait de marchés avec de nombreuses unités de petite taille à un capitalisme « moléculaire » fait de marchés avec quelques unités de tailles différentes-, l’analyse économique s’est rapidement intéressée à cette forme de concurrence imparfaite en élaborant la théorie du duopole au moyen de plusieurs modèles, dont le plus connu est dû à A. Cournot (1838). L’intérêt pour la concurrence oligopolistique s’est accentué avec l’émergence de la théorie des jeux tout juste un siècle après, quand, en 1938, E. Barel publie son ouvrage sur les jeux de hasard. La théorie des jeux aura sa première application en économie dans le fameux ouvrage de J. von Neumann et O. Morgenstern, paru en 1944. En 1950, J. Nash généralise, grâce à la théorie des jeux, les raisonnements tenus dans le cadre de la théorie néoclassique : on montre d’ailleurs que l’équilibre dans les modèles du duopole de Cournot et du duopole de Stackelberg correspond à un « équilibre de Nash » (il y a équilibre de Nash quand il y a cohérence mutuelle des stratégies des différents agents, la stratégie de chacun d’eux étant optimale en ce sens qu’aucun d’entre eux n’a intérêt à changer unilatéralement de stratégie puisqu’il sait que chacun des autres se trouve lui aussi dans cette situation). Pour ce qui nous concerne ici, il faut retenir que les deux modélisations données de la concurrence oligopolistique –celle du courant néoclassique et celle de la théorie des jeux- rompent avec les modèles précédents sur un point capital : elles tiennent compte dans leurs raisonnements des interdépendances qui existent fatalement entre les entreprises. Ces interdépendances sont d’ailleurs de deux sortes : les unes sont conjoncturelles et les autres sont conjecturales. Les interdépendances conjoncturelles entre entreprises sont objectives et permanentes en ce sens que les quantités vendues, la part de marché, le chiffre d’affaires et le profit de chacune d’elles sont liés à celles et à ceux des autres. Les interdépendances conjecturales concernent les interactions stratégiques entre les firmes : les décisions de chacune des firmes dépendent des effets des décisions que les autres ont prises et de l’anticipation que chacune fait des décisions que les autres vont probablement prendre, y compris en fonction de ses propres décisions. Notons que la théorie des jeux apporte une amélioration aux modèles néoclassiques sur un point important : bien que leurs fonctions de réaction puissent laisser penser le contraire, ces modèles raisonnent dans un cadre statique. Ainsi, le modèle de Cournot raisonne à production constante (chacune des deux entreprises fixe sa production optimale en supposant que la production réalisée par l’autre va rester constante) et le modèle de Bertrand raisonne à prix constant (chacune des deux entreprises fixe son prix de vente comme si le prix choisi par l’autre allait rester constant). L’utilisation des jeux répétés à horizon infini est une première façon de faire une analyse dynamique de la concurrence oligopolistique.

37. Quand on évoque en première année de licence d’économie la théorie du duopole, on étudie essentiellement trois modèles néoclassiques. Le premier modèle étudié est toujours celui de Cournot. Dans ce modèle, les deux producteurs sont placés sur un pied d’égalité : on parle pour cela de « duopole symétrique » ou de « double satellitisme ». L’équilibre du duopole de Cournot résulte de la résolution d’un simple système de deux équations à deux inconnues : les deux équations correspondent aux « fonctions de réactions » des deux duopoleurs qui indiquent les quantités optimales qu’ils doivent offrir, chacune d’elles dépendant de l’autre. Le second modèle est celui de Stackelberg. Ce modèle est doublement asymétrique. L’asymétrie est d’abord informationnelle parce que l’un des deux duopoleurs connaît la fonction de réaction de l’autre. D’où une asymétrie de stratégie : le duopoleur avantagé en information est évidemment dans une position privilégiée. C’est lui le leader du marché tandis que l’autre est forcément « suiveur ». Il est facile de comprendre –et de démontrer- que le profit du leader est non seulement plus important que celui du suiveur, mais également plus important que lorsqu’on est dans la situation de Cournot. Il en résulte que chacun des deux duopoleurs peut chercher à être le leader du marché : on retrouve alors une situation de duopole symétrique, mais avec « double-maîtrise ». Cette situation est étudiée dans le modèle de Bowley. Il y est démontré que dans une telle situation il n’y a pas d’équilibre stable parce que la production totale des deux firmes est telle que le prix baisse au point de mettre en péril la survie des deux duopoleurs. Plusieurs issues sont alors possibles : soit l’une des deux firmes disparaît (et on est alors en monopole), soit l’une des deux firmes capitule et devient l’entreprise dominée (et on retrouve l’hypothèse de Stackelberg), soit les deux firmes se placent en double satellisation (et on retrouve l’hypothèse de Cournot), soit les deux firmes s’entendent et forment en quelque sorte à elles deux un monopole : il s’agit d’un cartel. Deux remarques sont à faire ici : d’abord, quand on passe de la théorie du duopole à celle de l’oligopole, le cartel vise l’accord passé entre quelques ou tous les oligopoleurs ; ensuite, le cartel est une entente explicite, par opposition à une entente implicite qui se traduit en particulier par l’application par toutes les entreprises de la politique de prix que mène l’une d’entre elles (voir le paragraphe suivant, consacré à la position dominante). Il y a donc ici collusion et formation d’un duopole coopératif. Face à une telle situation, la théorie économique traite essentiellement de trois questions : deux concernent la négociation qui doit s’engager entre les deux firmes et la troisième concerne la stabilité du cartel qu’elles forment. D’abord, il faut négocier le contrat fixant les quotas de production pour que chaque firme ait un profit positif et que l’augmentation du profit de l’une des deux ne se fasse pas au détriment du profit de l’autre (règle correspondant en quelque sorte au critère d’optimalité parétienne). Ensuite, il faut négocier le partage du profit global du monopole ainsi constitué, qu’il s’agit de maximiser : plusieurs techniques sont proposées par la théorie pour organiser une telle négociation ; citons en particulier celle de Zeuthen. Enfin, la stabilité du cartel est loin d’être assurée parce que l’un des oligopoleurs peut rompre l’accord pour tenter d’ajouter à son profit de cartel ce que l’on appelle le « profit de déviation ». Après les travaux de G. Stigler en 1964, de nombreuses études ont été faites pour savoir si le cas le plus fréquent est celui de la stabilité du cartel et pour isoler les facteurs qui jouent en faveur de cette stabilité. Une étude empirique récente s’est intéressée à la durée de vie des cartels européens (Emmanuel Combe, octobre 2012) : la durée de vie moyenne est légèrement supérieure à 7 ans et la durée de vie médiane est comprise en 5 ans et demi et 6 ans. Mais les durées de vie peuvent varier considérablement d’un cartel à l’autre et il y a également de grandes différences d’un secteur économique à l’autre. Les secteurs où il y a le plus de cartels en Europe sont surtout ceux des biens intermédiaires et de la chimie ; il y en a quelques-uns dans les services, ceux des transports et de la finance en particulier.

38. Le cartel de l’OPEP est un cartel forcément instable parce qu’il concerne un oligopole très hétérogène : les pays ne se trouvent pas dans les mêmes conditions et n’ont pas des objectifs identiques.

Politiques I-2

Ces politiques luttent contre les abus de position dominante.

39. Toute entreprise peut souhaiter être un jour en situation de position dominante, car, dans le cadre de la recherche permanente d’une plus grande rentabilité, il est normal de tenter de s’abstraire au maximum de son réseau de contraintes : la position dominante peut en effet permettre à l’entreprise de moins se préoccuper des réactions de son environnement, qu’il s’agisse en particulier de ses concurrents, de ses fournisseurs et même de ses clients. C’est d’ailleurs ainsi que la Cour de justice européenne définit la position dominante dans son fameux arrêt « Hoffmann-La Roche » de février 1979 : « la position dominante (…) concerne une situation de puissance économique détenue par une entreprise, qui lui donne le pouvoir de faire obstacle au maintien d’une concurrence effective sur le marché en cause en lui fournissant la possibilité de comportements indépendants dans une mesure appréciable vis-à-vis de ses concurrents, de ses clients et, finalement, des consommateurs ». Notons que cette définition se trouvait déjà, tout juste un an auparavant, dans l’arrêt un peu moins connu, « United Brands c. commission ». Mais la position dominante devient une pratique anticoncurrentielle quand l’entreprise ou le groupe d’entreprises en abuse, c’est-à-dire lorsqu’elle est utilisée dans le but d’entraver significativement la concurrence au point de se rendre très indépendant des autres acteurs. Une telle position de force résulte de situations de monopole ou de quasi-monopole, de structures oligopolistiques avec ententes, de « conduites parallèles » évoquées plus haut à propos des situations d’oligopole, et de « ventes liées » qui consistent pour l’entreprise dominante à profiter de sa position pour imposer un lot de biens et/ou services, ce qui lui permet tout à la fois de se renforcer et d’éliminer les concurrents sur les marchés supports (Microsoft pratiquait une vente liée quand elle imposait de fait d’utiliser avec Windows le logiciel Media Player pour faire de la lecture multimédia : en 2004, Microsoft a été obligée de proposer une version de Windows n’incluant pas Media Player).

40. Le Code de commerce français traite de l’abus de position dominante dans l’alinéa 1 de son article L. 420-2. L’alinéa 2 de cet article traite d’une situation voisine en ce qu’elle est liée aussi au pouvoir de marché que détient une entreprise et en ce qu’elle perturbe également le jeu de la concurrence : il s’agit de la dépendance économique dans laquelle une entreprise ou un groupe d’entreprises peut placer un client et/ou un fournisseur, lequel, ne dispose alors d’aucune solution alternative. Cette notion de dépendance économique apparaît pour la première fois dans une ordonnance de décembre 1986. Contrairement à l’abus de position dominante, l’abus de dépendance économique ne concerne pas tout le marché, mais seulement un ou des partenaires commerciaux. L’abus de dépendance économique n’est pas prévu par le droit communautaire.

41. De même que c’est aux États-Unis qu’est née, suite aux excès des « barons voleurs », la réglementation anti-trust, c’est également aux États-Unis, mais après la crise de 1929, que des analyses économiques se sont déployées pour montrer les excès de la grande taille. On peut citer en particulier celle de A. Berle et G. Means, qui, dans leur fameux ouvrage paru en 1932 (« l’entreprise moderne et la propriété privée »), montrent que dans les grosses entreprises (les sociétés par actions) il y a une dissociation entre propriété et management, que c’est l’intérêt du manager qui prime et pas celui du public ni celui des actionnaires, et que donc l’objectif de pouvoir du management l’emporte sur celui du profit de l’entreprise, d’où les dysfonctionnements du capitalisme des années 30. C’est sur de telles analyses que s’appuie la lutte contre les positions dominantes.

42. Pour expliquer le fonctionnement des marchés oligopolistiques quand existe une firme qui est en position dominante, en général grâce à sa grande taille, et qui est entourée par des firmes de plus petite taille, l’analyse économique propose plusieurs raisonnements possibles. Le modèle du duopole de Stackelberg abordé plus haut en est déjà un, puisqu’il met en scène une firme leader face à une firme suiveuse. Il est possible de généraliser ce raisonnement au cas où il y a plusieurs entreprises suiveuses : comme dans le modèle de Stackelberg, le prix est fixé par l’entreprise leader de façon à maximiser son profit (pour tout producteur, ce prix est celui qui lui permet d’écouler la quantité qui égalise sa recette marginale avec son coût marginal) et ce prix s’impose aux entreprises suiveuses, celles-ci étant comme en concurrence parfaite les unes envers les autres (elles forment ce que l’on appelle « la frange concurrentielle ») : le prix fixé par le leader joue le rôle de la ligne de prix que l’on a en CPP. Notons qu’il peut arriver que des firmes adoptent en général la même politique de prix qu’une firme leader, mais sans que celle-ci ne détienne forcément une position dominante pour autant : c’est le cas de la « firme leader barométrique » dont les compétences sont particulièrement reconnues par ses « consœurs » pour apprécier la situation du marché, en anticiper l’évolution et pour fixer ses prix de manière très pertinente. Dans le cas de la firme barométrique, il n’y a pas a priori d’abus de position dominante ; il s’agit plutôt d’une forme d’entente implicite.

43. Cette distinction entre firme leader et firme barométrique est intéressante parce qu’elle montre la difficulté de dire quand il y a position dominante ou non ; et donc la nécessité de trouver des critères d’appréciation. L’arrêt Hoffmann-La Roche répond à ce souci en s’appuyant à la fois sur des critères quantitatifs (parts de marché absolue et relative) et sur des critères qualitatifs (existence de barrières à l’entrée, avance technologique, important réseau commercial…).

Politiques I-3

Ces politiques luttent contre les stratégies prédatrices.

44. En économie, la prédation s’illustre principalement par la fixation d’un prix anormalement bas. Selon le cas, cette stratégie est soit offensive (on peut alors parler de « dumping interne »), pour étouffer en quelque sorte les concurrents, même s’ils sont a priori aussi efficaces qu’elle, et/ou pour éventuellement lancer une OPA juteuse, soit défensive quand la firme se sent menacée par un concurrent existant ou par un concurrent potentiel. Les concurrents auront en général comme comportement de baisser à leur tour leur prix. S’engage donc une surenchère à la baisse de prix, une guerre des prix ; ce qui fait penser à la concurrence du duopole de Bertrand. La réussite d’une telle stratégie dépend de la capacité de la firme prédatrice à tenir plus longtemps que ses concurrents et à supporter éventuellement des pertes à court terme qui représentent pour elle le coût de son investissement en pouvoir de marché. Il est évident que la taille respective des différentes entreprises engagées dans une telle guerre des prix joue un rôle déterminant.

45. De nombreux auteurs de l’école autrichienne et de l’école de Chicago ont tenté de démontrer que la stratégie prédatrice par baisse des prix n’était ni rationnelle ni efficace. Mais d’autres auteurs, notamment en utilisant la théorie des jeux, estiment au contraire que cette stratégie peut s’expliquer par l’asymétrie d’information dont bénéficie la firme prédatrice (elle est seule à connaître ses coûts de production) ou par le fait qu’elle s’organise pour bâtir une réputation de firme agressive en matière de prix. De toute façon, la stratégie prédatrice, même si elle peut apporter quelque temps un avantage aux consommateurs, est faite avant tout pour donner sur le long terme encore plus de pouvoir de marché et de profit à la firme prédatrice, puisqu’elle ne manquera pas, en effet, après avoir beaucoup baissé ses prix le temps d’arriver à ses fins, de les augmenter considérablement après : la firme prédatrice fait donc un arbitrage intertemporel dans le cadre de son calcul d’investissement en pouvoir de marché. Il n’empêche qu’il est difficile de savoir si la stratégie de baisse de prix menée par une firme s’inscrit dans le souci –légitime et légal- de s’adapter à l’évolution de la conjoncture ou s’il s’agit bel et bien pour elle d’une pratique anticoncurrentielle dont le but est d’éliminer d’autres firmes. Pour le savoir, on utilise habituellement la règle proposée dans un article de 1975 par P. Areeda et D. Turner, qui considère qu’il y a prédation quand le prix est inférieur au coût marginal de court terme, ou, à défaut, au minimum du coût variable moyen, c’est-à-dire le seuil de fermeture. Il en découle la méthode appliquée par la Commission européenne en 1985 dans l’affaire Akzo où on distingue trois zones (et on parle depuis du « test Akzo ») : la zone noire, quand le prix se trouve en dessous du minimum du coût variable moyen et où donc la prédation est avérée, la zone grise, quand le prix est compris entre le minimum du coût variable moyen et le minimum du coût moyen global, et dans ce cas il faut apporter la preuve de l’intention malveillante de la firme incriminée, et la zone blanche quand le prix est au-dessus du minimum du coût moyen global : il n’y a pas prédation.

Politiques II-1

Ces politiques cherchent à contrôler les concentrations.

46. Paradoxalement, on peut soutenir que le phénomène de concentration est dans bien des cas la conséquence logique de la concurrence elle-même. Dire cela amène à distinguer deux conceptions de la concurrence selon que l’on se réfère à la théorie économique classique ou à la théorie économique néoclassique. En effet, alors qu’Adam Smith considère que la concurrence est un processus dynamique, en l’occurrence un processus de compétition, de rivalité, les néoclassiques font de la concurrence, avec leur axiomatique, une structure de marché où en définitive les firmes n’ont à appliquer, indépendamment les unes des autres, qu’un calcul maximisateur automatique en fonction du prix affiché par le marché. Il est évident que la conception des auteurs classiques est plus proche de la réalité : le degré de « concurrentialité » d’un marché est en effet bel et bien fonction de l’intensité de la rivalité qui existe entre les entreprises. C’est d’ailleurs cette vision des choses qu’adoptent les auteurs, au premier des rangs desquels se trouve l’Américain J.M. Clark (1940), qui défendent la notion de « workable compétition » (qui correspond à un « second best »), que l’on peut traduire par « concurrence praticable » ou par « concurrence efficace », ou encore, de manière très simple, par « concurrence qui marche », parce que les tendances à la concurrence l’emportent concrètement sur les tendances au monopole. Cette notion joue un rôle important dans la jurisprudence de la Cour de justice, qui affirme en effet dans l’un de ses arrêts que « la concurrence non faussée, visée aux articles 3 et 85 du traité CEE, implique l’existence sur le marché d’une concurrence efficace (workable compétition), c’est-à-dire de la dose de concurrence nécessaire pour que soient respectées les exigences fondamentales et atteints les objectifs du traité, et en particulier la formation d’un marché unique réalisant des conditions analogues à celles d’un marché intérieur ; que cette exigence admet que la nature et l’intensité de la concurrence puissent varier en fonction des produits ou services en cause et de la structure économique des marchés sectoriels concernés ».

47. La compétition à laquelle les entreprises se livrent les conduit nécessairement à vouloir accroître leur taille pour augmenter leurs performances. Dans la plupart des cas, la croissance est pour les entreprises une nécessité pour défendre leur compétitivité, non seulement en bénéficiant des synergies qui sont source d’économies d’échelle et d’envergure, mais aussi parce que la taille du marché augmente et que l’évolution technologique exige une surface financière plus importante. Les entreprises peuvent assurer leur croissance soit de manière interne en augmentant leur propre stock d’actifs de production soit de manière externe par le rachat total ou partiel d’autres entreprises, avec donc prise de contrôle. La croissance externe peut se faire aussi quand des entreprises créent ensemble une nouvelle entité (« joint venture »). Il y a donc concentration quand il y a croissance externe. La concentration est horizontale quand les firmes absorbées et la firme absorbante se situent au même stade de production, et cette concentration horizontale est homogène quand il s’agit du même bien, hétérogène dans le cas inverse et dans ce cas elle est fonctionnelle si les biens fabriqués répondent au même type de besoin et conglomérale quand les firmes fabriquent des biens totalement différents les uns des autres (la stratégie conglomérale a été souvent utilisée il y a quelques décennies en fonction du principe selon lequel « il ne faut pas mettre tous ses œufs dans le même panier », mais cette stratégie a été en général abandonnée au profit au contraire d’un « recentrage sur le métier »). La concentration est verticale quand les entreprises concernées travaillent à des stades différents de fabrication : selon le cas, l’intégration se fait par l’amont (vers le haut de la filière) ou par l’aval (vers le bas de la filière). Bref, la concurrence pousse naturellement à la concentration ; mais encore faut-il que la concentration ne tue pas la concurrence.

48. Pour contrôler les concentrations, il est nécessaire de se donner des critères de taille et un indice à prendre en considération pour mesurer l’importance de la concentration. Le critère de taille utilisé par l’article L 430-2 du Code de commerce français est le chiffre d’affaires. Un indice de concentration déjà cité est l’indice d’Herfindahl-Hirschmann. Il en existe d’autres quand il s’agit de mesurer le degré de concentration non plus « absolue », mais « relative » comme c’est le cas avec l’indice de concentration de Gini et avec l’indice de Linda appelé C4 : quand les 4 plus grandes entreprises de la branche font au moins 80% du chiffre d’affaires total, c’est la zone rouge parce qu’il y a un grave danger d’atteinte à la concurrence et une forte probabilité d’entente ; si le C4 est compris entre 60% et 80%, c’est la zone orange et le danger est sérieux et possible ; si le C4 est compris entre 40% et 60%, la zone est jaune et la situation est à suivre et enfin la zone verte avec une présomption de concurrence. La mesure de la concentration absolue vise l’accroissement de la taille moyenne de chaque entreprise ou l’augmentation du nombre de firmes qui atteignent telle taille, et celle de la concentration relative cherche à savoir de combien, par exemple, s’est accrue la part dans la production totale des 4 ou 8 firmes les plus grandes de la branche, ou ce qui revient au même de combien diminue le nombre d’entreprises pour représenter un certain pourcentage du total. Jacques Houssiaux a détaillé les différentes mesures envisageables de la concentration dans son ouvrage sur le pouvoir du monopole, paru en 1958, et qui marque la naissance en France de l’économie industrielle, autrement dit de la « mésoéconomie ». Soulignons que dans le cadre de cette nouvelle discipline, née dans les années 1930 aux États-Unis sous le nom de « industrial organisation », s’est développé à Harvard un premier modèle d’analyse industrielle, appelé souvent le modèle SCP, qui explique ce qui se passe concrètement dans la vie économique des firmes au moyen d’une séquence de facteurs, selon un ordre précis de causalité :

Conditions de base (à la fois quant à l’offre et quant à la demande) –> Structure des marchés –> Comportements des firmes –> Performances.

49. Naîtra à propos de cette séquence un débat entre les économistes des Universités d’Harvard et de Chicago, les seconds reprochant les excès du structuralisme des premiers, estimant que les structures et les comportements interagissent dans les deux sens, et renversant même l’ordre entre P et S parce qu’ils pensent que ce sont davantage les performances des firmes qui influencent les structures des marchés que l’inverse.

50. Comme il a été indiqué déjà plus haut, la concentration est une conséquence logique du processus concurrentiel. K. Marx le pensait également et estimait même qu’il y avait dans cette évolution de la structure du marché un facteur déterminant de l’effondrement du capitalisme. Il s’est évidemment trompé sur ce dernier point. Mais l’ont pensé aussi et expliqué de nombreux autres auteurs, comme J. Schumpeter, J. Robinson, et plus près de nous, les Américains J. K. Galbraith, J. Blair et les Français S. Wickam, Y. Morvan, F. Morin, A.P. Weber…

51. Mais, comme on l’a déjà souligné, si la concentration est un processus dynamique naturel, il ne faut pas pour autant qu’elle permette aux entreprises qui bénéficient de ses avantages d’en profiter pour développer des stratégies qui entraînent des abus de position dominante et de trop fortes distorsions de concurrence, sous prétexte d’accroître leur « rente de monopole ». Certes, le processus de concentration n’est pas sans limites en lui-même, ne serait-ce qu’à cause des déséconomies d’échelle qu’une trop grande taille peut entraîner, mais il convient, sans attendre que les entreprises deviennent des organisations ingérables, que les pouvoirs publics contrôlent les concentrations pour lutter contre ces excès. Seulement, les concentrations actuelles se développent au niveau de l’économie mondiale et le pouvoir d’intervention des États-nations s’en trouve forcément réduit. De plus, les États-Unis et l’Europe sont les deux seules régions du monde où les concentrations sont réellement surveillées, ce qui donne une marge d’action supplémentaire aux multinationales.

• Politiques II-2

Ces politiques veulent lutter contre les distorsions de concurrence que peuvent entraîner notamment les aides publiques aux entreprises.

52. Il y a distorsion d’une manière générale, et de concurrence en particulier, quand il y a des déséquilibres entre les acteurs d’un marché, créés par des politiques et/ou des situations discriminatoires, qui perturbent le fonctionnement de ce marché en nuisant surtout à la concurrence. On a affaire à une concurrence déloyale.

53. Les distorsions correspondent pour l’essentiel à des stratégies de dumping. Nous avons déjà utilisé ce terme pour désigner la stratégie prédatrice consistant pour une entreprise à fixer un prix de vente anormalement bas. C’est du « dumping interne », ce qui est illégal, tout comme la revente à perte. Mais il y a aussi du dumping « externe » quand les entreprises d’un pays voient leur compétitivité-prix érodée parce que des entreprises étrangères qui les concurrencent sur le marché national et sur les marchés étrangers ont des coûts de production beaucoup plus faibles, parce que le droit social est moins exigeant (dumping social), et/ou que la fiscalité est moins élevée (dumping fiscal) et/ou encore que la réglementation en faveur de l’environnement est moins stricte (dumping environnemental). Ou aussi quand les pouvoirs publics de ces pays aident leurs entreprises, notamment par la voie de subventions.

54. L’OMC accepte qu’un pays mette en place des droits de douane pour compenser les effets du dumping sur ses entreprises et l’Union européenne dispose de droits anti-dumping. Le TFUE traite spécifiquement des aides d’État dans ses articles 107 à 109. Dès son premier paragraphe, l’article 107 précise la notion d’aide d’État : « Sauf dérogations prévues par le présent traité, sont incompatibles avec le marché intérieur, dans la mesure où elles affectent les échanges entre États membres, les aides accordées par les États ou au moyen de ressources d’État sous quelque forme que ce soit qui faussent ou qui menacent de fausser la concurrence en favorisant certaines entreprises ou certaines productions ». On comprend que les aides d’État sont anticoncurrentielles quand elles sont discriminatoires, que c’est l’effet des aides qui compte et non leur nature, que les entreprises visées peuvent être aussi bien publiques que privées, et que ces aides permettent aux entreprises d’accroître leur actif et/ou de diminuer leur passif sans pour autant être conditionnées par la fourniture d’une contrepartie : elles constituent en quelque sorte des « actes à titre gratuit ».

• Politique II-3

Ces politiques ont pour but de libéraliser, en les ouvrant à la concurrence, les monopoles publics, fréquents dans les « industries de réseaux » (l’expression « services en réseaux » est plus judicieuse lorsque l’on privilégie le contexte de l’économie numérique).

55. Le TFUE réserve son article 106 à ce type de politique. Il comporte trois courts paragraphes et ce sont les deux premiers les plus importants :

  • « 1. Les États membres, en ce qui concerne les entreprises publiques et les entreprises auxquelles ils accordent des droits spéciaux ou exclusifs, n’édictent ni ne maintiennent aucune mesure contraire aux règles des traités, notamment à celles prévues aux articles 18 et 101 à 109 inclus.
  • 2. Les entreprises chargées de la gestion de services d’intérêt économique général ou présentant le caractère d’un monopole fiscal sont soumises aux règles des traités, notamment aux règles de concurrence, dans les limites où l’application de ces règles ne fait pas échec à l’accomplissement en droit ou en fait de la mission particulière qui leur a été impartie. Le développement des échanges ne doit pas être affecté dans une mesure contraire à l’intérêt de l’Union ».

56. Le premier article renvoie à la notion d’entreprise très large que donne la jurisprudence de la Cour de justice dans un arrêt de 1991 : « la notion d’entreprise comprend toute entité exerçant une activité économique indépendamment du statut juridique de cette entité et de son mode de fonctionnement ». L’article 106 vise donc bien uniquement des entreprises publiques qui ont une activité économique. Et ce premier paragraphe oblige donc les États membres à appliquer les règles de concurrence aux entreprises publiques.

57. Le second article est important pour deux raisons essentiellement. D’abord, il précise le contenu de la catégorie des entreprises auxquelles les États membres accordent des droits spéciaux ou exclusifs, dont parle le paragraphe 1, en traitant de deux catégories particulières : les entreprises chargées d’un intérêt économique général –SIEG- et celles qui présentent le caractère d’un monopole fiscal. La seconde catégorie ne pose pas de problème particulier. Par contre, la première soulève une difficulté de définition. Les commentateurs semblent d’accord pour reconnaître qu’il existe aujourd’hui une notion communautaire de SIEG au-delà des conceptions nationales et que l’élément fondamental est le caractère indispensable de ces services pour l’intérêt général. Ensuite, et c’est très important, ce deuxième paragraphe donne aux États membres la possibilité de déroger aux règles de concurrence prévues par le premier paragraphe lorsqu’il s’agit d’entreprises chargées de SIEG ou ayant le caractère d’un monopole fiscal. L’exposé des motifs avait été fait dès 1993 dans un arrêt de la Cour de Justice.

58. Pour l’économiste, ces politiques posent la question des « monopoles naturels ». Ceux-ci constituent une « défaillance du marché » avec les biens publics et les externalités que nous avons déjà évoqués.

59. Pour définir ce qu’est un monopole naturel, on peut dire tout simplement qu’il y a monopole naturel quand il est naturel d’avoir affaire à un monopole !

60. C’est le cas quand deux conditions sont remplies. D’une part, quand l’activité est très capitalistique, et c’est particulièrement le cas dans les industries de réseau puisque dans ces domaines les charges d’installation et de maintenance des infrastructures sont très élevées, donc les coûts fixes d’entrée aussi, et que de surcroît il est difficilement imaginable de dupliquer de telles infrastructures (il suffit pour s’en convaincre de penser au réseau ferroviaire et au réseau électrique). Et d’autre part, quand une seule firme suffit pour répondre à la demande : il y a monopole naturel tant que le réseau n’est pas saturé. Quand l’activité est très capitalistique, les rendements d’échelle sont croissants et souvent très importants -ce qui signifie que le volume de production augmente relativement plus que les quantités de facteur capital et travail mises en œuvre : le coût moyen est décroissant et le coût marginal lui reste systématiquement inférieur, si bien que la fixation du prix au coût marginal pour maximiser en principe le bien-être collectif entraîne un profit négatif pour le producteur. C’est en cela que le monopole naturel est une défaillance du marché. Pour que le profit ne soit pas négatif, il faut alors que l’entreprise puisse fixer un prix au moins égal à son coût moyen. Les pouvoirs publics peuvent alors prévoir principalement deux types d’intervention. Soit, imposer à l’entreprise une tarification au coût marginal pour maximiser le surplus collectif (solution dite de premier rang puisqu’elle est optimale), en lui versant une subvention pour compenser sa perte ; mais cette solution peut conduire à un déficit budgétaire et/ou à une fiscalité distorsive. Soit, mettre en place une tarification administrée au coût moyen, ce que l’on appelle une solution de second rang, ou de moindre mal puisque, certes, le monopole est viable, mais il y a diminution du bien-être de la collectivité.

61. Dans le cas des industries de réseau, les monopoles naturels sont presque toujours en même temps des monopoles légaux (ou institutionnels), c’est-à-dire publics, parce qu’aux caractéristiques techniques du monopole naturel s’ajoutent des motifs politiques qui font que le monopole est aussi étatique : missions de service public (continuité, adaptabilité et égalité), contrôle des externalités et redistribution sociale.

62. La situation de monopole naturel n’est pas immuable dès lors que les rendements d’échelle ne sont plus croissants par suite en particulier de progrès techniques et/ou de changements dans les besoins des usagers. Il en est ainsi dans le domaine des télécommunications puisque la téléphonie mobile bénéficie de coûts plus faibles que la téléphonie fixe. Cela explique l’ouverture à la concurrence de ce secteur dès la fin des années 1990.

63. Il est des monopoles naturels qui ont le monopole du produit, mais pas celui du service rendu, comme c’est le cas des réseaux de transport. Le cas du transport ferroviaire est doublement intéressant de ce point de vue : d’abord, il faut distinguer le cas des voies ferrées qui remplissent les conditions d’un monopole naturel alors que le service de transport sur ces voies ne les remplit pas et que l’on peut par conséquent ouvrir à la concurrence (de ce point de vue, le projet récent de réunir dans un seul pôle public le RFF et la SNCF –dissociés en 1997- peut inquiéter les défenseurs de la libéralisation voulue par la Commission européenne) ; ensuite, ce service de transport ferroviaire a lui-même un substitut proche avec les autres formes de transport, à commencer par le transport aérien. Par conséquent, dans de telles situations, la dérégulation consiste à limiter le monopole légal aux seules activités de monopole naturel et à ouvrir à la concurrence les activités de prestations de services. Faisons deux remarques. D’abord, dans le cas des transports (fret ferroviaire / transport routier ; TGV / avion) et aussi dans celui des télécommunications (téléphone fixe / téléphone mobile), la concurrence « intermodale » joue un rôle important et cela limite les besoins d’intervention étatique. Ensuite, la séparation entre les activités de monopole naturel concernant les infrastructures et les activités de services finals soulève plusieurs difficultés : celle de fixer un tarif adéquat pour l’accès au réseau, celle des coûts de transaction entre le gestionnaire du réseau et les prestataires de services et celle des coûts de coordination entre ces prestataires pour l’utilisation du réseau.

64. Enfin, il existe aussi des monopoles qui ont le monopole à la fois en matière de production et en matière commerciale, et qui sont sans substitut proche. C’est le cas de la fourniture d’eau potable. Quand la séparation entre les infrastructures et les prestations de services est très difficile comme ici, la concession (limitée dans le temps et/ou dans l’espace) est la solution la mieux adaptée pour que le prix proposé soit le plus faible : il y a d’abord concurrence entre entreprises pour « décrocher » ce marché public local et l’entreprise qui emporte le marché est incitée à avoir par la suite de bonnes pratiques pour s’assurer le renouvellement de la concession.

65. Cela dit, l’économie de la réglementation propose plusieurs méthodes quand il y a monopole naturel, pour, tout à la fois, assurer la viabilité de l’entreprise et ne pas sacrifier excessivement les intérêts des consommateurs et de la collectivité. On sait déjà qu’il y a la méthode de la tarification au coût moyen, méthode de second rang. Mais quand le monopole naturel est multi-produits, cette solution est plus délicate : il s’agit de déterminer pour les différents produits offerts des prix suffisants pour couvrir globalement les coûts fixes du monopole tout en minimisant la perte de surplus des consommateurs. Pour respecter la contrainte budgétaire du producteur, ces prix doivent être supérieurs au coût marginal, mais la question est de les différencier pour que la perte de surplus soit la même pour les différentes catégories de consommateurs. Pour cela, la règle de Ramsey-Boiteux consiste à faire payer aux usagers un prix dont l’écart par rapport au coût marginal est d’autant plus élevé que les usagers sont captifs. Plus précisément, cet écart doit être inversement proportionnel aux élasticités-prix de la demande. Notons que lorsqu’il s’agit d’un monopole multi-produits s’ajoutent en sa faveur, aux économies d’échelle, des économies d’envergure, c’est-à-dire des économies de coûts qui résultent des complémentarités existant entre les différents biens et services qu’il fournit.

66. Seulement, pour mettre en œuvre la solution de second rang dont il vient d’être question, encore faut-il que le réglementeur ait des informations sur les coûts du monopole. Or, il est la plupart du temps confronté à une asymétrie d’information en sa défaveur, d’où le double risque de sélection adverse et d’aléa moral. Pour lutter contre le risque de sélection adverse, le réglementeur adoptera par exemple la méthode d’Averch et Johnson qui consiste à baser sa réglementation sur le taux de rentabilité des capitaux investis, ce qui est relativement plus facile à connaître que les coûts de production. Pour lutter contre le risque d’aléa moral, il adoptera par exemple la méthode de Linhart et Radner qui consiste pour le réglementeur à réajuster le prix administré en fonction de l’écart entre l’évolution des prix des facteurs de production et une norme d’évolution de la productivité. Cette façon de procéder est une stratégie d’incitation puisqu’elle encourage le monopole à faire des efforts de gestion qui peuvent lui faire réaliser un gain supplémentaire si sa productivité dépasse la norme fixée.

67. Pour ce qui concerne la dérégulation ou encore la libéralisation des activités de réseau, deux objectifs sont poursuivis.

68. (1) D’abord, celui de l’ouverture à la concurrence de ce qui ne ressort pas d’un monopole naturel. Pour ce faire, il y a la méthode « forte » et la méthode « douce », si l’on peut dire.

69. La méthode forte incite de nouveaux opérateurs à entrer sur le marché pour venir directement concurrencer l’opérateur historique. L’ouverture à la concurrence concerne en général tout ou partie des services, mais peut aller jusqu’à viser l’infrastructure de connexion elle-même avec l’ « open access » : avec l’accès des tiers au réseau -ATR-, le gérant d’infrastructure est obligé de mettre son réseau à la disposition de tout acheteur et de tout vendeur qui en ont besoin pour effectuer une transaction, et ce contre paiement d’un péage. Comme le disent les économistes, on est là dans un cas de « monopole contrarié » dans la mesure où, face à un seul offreur, il n’y a en général qu’un petit nombre de demandeurs. Cette méthode forte est utilisée essentiellement dans les pays anglo-saxons, mais c’est néanmoins ce qui se passe aussi en France dans le secteur de la téléphonie, avec l’Autorité de régulation des communications et des postes –ARCEP, qui se charge du tarif d’interconnexion pour que les opérateurs puissent accéder au réseau.

70. La méthode douce, privilégiée dans l’Union européenne, se fonde également sur le principe de l’incitation, mais de manière indirecte : il s’agit de lever les obstacles juridiques pour permettre à de nouveaux opérateurs d’entrer sur le marché.

71. Alors que dans la méthode forte, l’hypothèse sous-jacente est que c’est l’atomicité du marché qui est déterminante, dans la méthode douce, c’est celle de la liberté d’entrée / liberté de sortie qui est privilégiée. Et en général, alors que dans le premier cas l’opérateur historique est démantelé, il ne l’est pas dans le second.

72. (2) Le deuxième objectif poursuivi lors de la dérégulation est la séparation entre le gouvernement et l’opérateur historique. La réalisation de cet objectif se traduit de deux manières. Il y a d’une part la séparation entre le gouvernement et l’opérateur historique, soit par sa privatisation comme c’est souvent le cas dans les pays anglo-saxons, soit par sa transformation en établissement public à caractère industriel et commercial comme c’est souvent fait en France. Il y a d’autre part la mise en place d’un réglementeur, spécialisé dans le secteur considéré et indépendant des pouvoirs publics. C’est ce que l’on appelle en France une AAI, autorité administrative indépendante (on a déjà cité l’ARCEP ; il y a aussi la Commission de régulation de l’Énergie – CRE). L’analyse économique considère qu’il existe une relation d’agence entre réglementeur et réglementé et que cette relation est donc forcément asymétrique en matière d’information.

73. La déréglementation a donc pour but de redonner au marché un pouvoir qu’il avait perdu au profit d’un fort interventionnisme étatique, lequel interventionnisme a trouvé lui-même son explication dans les défaillances du marché, ses incompétences et ses insuffisances. Mais l’interventionnisme étatique a lui aussi ses propres défaillances et il n’a pas toujours une efficacité à la hauteur de ses coûts pour la collectivité. Une critique radicale de l’interventionnisme étatique est faite par l’École des choix publics (dite aussi école de Virginie), créée par G. Mason, et surtout connue par les thèses de J. Buchanan et G. Tullock ; également de M. Olson : ces auteurs préfèrent un marché imparfait aux dérives possibles de l’action étatique, qu’elle soit politique ou administrative, et qui répond bien souvent à des intérêts particuliers, tout en assurant servir l’intérêt général.

74. Et contrairement à l’économie publique de la réglementation, avec en particulier A.C. Pigou, qui considère que la réglementation est parfaite au point d’assimiler le réglementeur à un planificateur idéal (le même, omniscient et bienveillant, que l’on a dans le système d’équilibre général), de nombreux économistes considèrent que la déréglementation ne peut pas être parfaite et qu’elle a elle aussi ses propres défaillances. Ainsi, l’économie industrielle de la réglementation considère que le réglementeur est soumis à des pressions diverses et la réglementation est l’enjeu d’une sorte de marché. Avec d’un côté les offreurs de réglementation, les politiques et les fonctionnaires, qui recherchent les uns leur réélection et les autres l’accroissement de leur pouvoir technocratique (on rejoint par là les théories de Buchanan et de Tullock) ; et de l’autre côté les demandeurs de réglementation, les entreprises, qui recherchent essentiellement de la protection moyennant différentes formes de soutien et de participation à la vie publique. L’auteur principal de cette école, G. Stigler (prix Nobel en 1982), élève d’ailleurs au rang de théorie sa thèse de la « capture » de la réglementation par les entreprises, selon laquelle le réglementeur est prisonnier de l’influence des groupes de pression et des acteurs politiques et qu’à cause de cela il n’est plus garant de l’intérêt général. La réglementation est donc nécessairement source de gaspillages, sans parler de ses coûts, supportés par l’administration pour l’appliquer et par les divers agents économiques pour la respecter. De son côté, la nouvelle économie publique de la réglementation, avec en particulier les Français J.-J. Laffont et J. Tirole, estime comme l’économie publique traditionnelle que la réglementation est nécessaire, mais que, comme l’école industrielle, la réglementation ne peut pas être parfaite. Le réglementeur présente en particulier un double défaut lié au phénomène d’asymétrie d’information, qu’il convient de corriger. On peut dire que l’asymétrie d’information qui nuit à la qualité de la réglementation concerne à la fois l’aval et l’amont du réglementeur. En aval, le réglementeur souffre d’une asymétrie d’information vis-à-vis du réglementé. Le réglementeur a en effet besoin, pour fixer les règles à respecter et en contrôler l’application, d’informations que le réglementé peut avoir intérêt à cacher. Comme dans tous les cas semblables, celui qui est en déficience de connaissances -ici le réglementeur- doit mettre en place des mesures incitatives. En amont, le réglementeur bénéficie d’une asymétrie d’information vis-à-vis de son autorité de tutelle. Celle-ci est en effet dépositaire de l’intérêt général alors que le réglementeur peut être sensible à des intérêts qui lui sont particuliers, notamment en termes de pouvoir. Une façon parmi d’autres d’éviter les comportements opportunistes du réglementeur est de délimiter nettement son champ de responsabilité et de fixer clairement ses relations avec l’autorité de tutelle.

75. Pour terminer sur ce point, on peut remarquer que les économistes sont plutôt pessimistes –et réalistes puisqu’ils dénoncent l’omniprésence de l’imperfection : dans la concurrence, dans l’interventionnisme et dans la réglementation.

Politiques II-4

Ces politiques visent la réglementation du monopole pour se rapprocher de la solution concurrentielle.

76. Comme le monopole est une situation sous-optimale puisque son prix d’équilibre est supérieur à celui de la CPP et que la quantité écoulée est plus faible, on pense naturellement à réglementer le monopoleur pour que la situation soit plus conforme aux intérêts du consommateur. La théorie économique envisage plusieurs types d’interventions étatiques possibles. Une façon de procéder est d’imposer au monopoleur un prix maximum (mais bien sûr plus bas que le prix d’équilibre du monopole), ce qui amène l’offreur à augmenter sa production, le tout étant favorable au consommateur. Une autre est de subventionner les consommateurs pour que le prix net d’achat se rapproche du prix de concurrence et permette même l’écoulement d’une quantité correspondant au cas concurrentiel : pour qu’il en soit ainsi, J. Tirole montre que la subvention doit être proportionnelle au prix de concurrence, le facteur de proportionnalité étant égal à l’inverse de l’élasticité de la demande. Une autre encore est de prélever sur le monopoleur une taxe forfaitaire, avec pour objectif de réduire voire de supprimer son super-profit : certes, le super-profit diminue, mais ni la quantité écoulée ni le prix fixé ne sont modifiés. Une autre enfin consiste à imposer au monopoleur une taxe unitaire : son super-profit est certes réduit aussi, mais la quantité diminue et il peut répercuter tout ou partie de la taxe sur le prix et donc la faire payer aux consommateurs. La taxation du monopoleur n’est donc pas une solution.

77. Laissons le soin de compléter l’analyse à Marcel Boiteux, haut fonctionnaire français et ancien PDG d’EDF : « l’État doit intervenir d’une manière ou d’une autre pour protéger la clientèle contre les abus du monopole. Il le peut soit en transférant la propriété de l’entreprise à la collectivité pour substituer un autre objectif à celui du profit maximum, soit en fixant les prix du service, ou du moins en les plafonnant, soit en mettant en concurrence les candidats à l’activité en cause, le gagnant étant celui qui s’engage à pratiquer durablement les prix les moins élevés. On reconnaît là les trois méthodes de maîtrise des monopoles : la nationalisation, la régulation et la concession ».

Politiques II-5

Ces politiques luttent contre l’asymétrie de l’information.

78. L’hypothèse d’information parfaite signifie en particulier que l’information est distribuée de manière symétrique entre les différents participants au marché : ils sont censés disposer tous de la même information, en quantité et en qualité. Or il n’en est rien dans la réalité. Parmi les deux cocontractants, il y en a toujours un qui en sait plus que l’autre et qui peut donc tenter d’en tirer avantage en adoptant un comportement opportuniste. Cela peut se produire avant la conclusion de l’affaire, avant la signature du contrat et/ou après. Quand cela se produit avant, le comportement opportuniste consiste à cacher une information et à faire courir ainsi à l’autre, à celui qui est en déficit d’information, un risque de « sélection adverse ». Quand cela se produit après, le comportement opportuniste consiste à cacher une action et à faire courir ainsi à l’autre un risque d’aléa moral. Dans les deux cas, celui qui est en déficit d’information tente toujours de trouver une parade pour éviter le risque qu’il court. L’analyse économique étudie les effets de l’asymétrie de l’information dans de nombreux domaines, comme ceux des marchés du travail, de l’assurance et du crédit. Un autre exemple souvent évoqué dans la littérature économique, à la suite du fameux article de G. Akerlof, est celui du marché des voitures d’occasion : les vendeurs de voitures d’occasion savent ce que valent leurs véhicules alors que les acheteurs potentiels ne le savent pas et ignorent pourquoi les autres vendent leurs voitures. On montre que cette asymétrie d’information aboutit à faire baisser le prix moyen des véhicules et donc à réduire la taille du marché parce que les vendeurs de véhicules de qualité, ne voulant pas les brader, se retirent du marché, d’où une réduction importante du surplus global, avec en plus la production d’une externalité informationnelle négative, du fait de la baisse de la valeur moyenne des véhicules en circulation. Ce cas des voitures d’occasion est généralisable à toutes les situations de manque et a fortiori de crise de confiance.

79. On comprend que ces comportements opportunistes nuisent à l’efficacité du jeu de la concurrence et que cela puisse déboucher sur des interventions étatiques. Dans l’exemple d’Akerlof, on peut imaginer l’obligation de faire périodiquement des contrôles techniques et de donner des garanties de pièces et de main d’œuvre. Dans d’autres cas, les pouvoirs publics peuvent favoriser la mise en place de labels. Deux économistes nord-américains, C. Pitchik et A. Schotter, ont fait deux applications d’économie expérimentale dans le domaine de la réparation automobile (les experts peuvent mentir aux propriétaires des automobiles tombées en panne quand ils font leur diagnostic et quand ils établissent leur devis de réparation). La première concerne la mise en place d’une licence et la seconde porte sur l’instauration d’un contrôle des prix. Ils démontrent que la mise en place d’une licence a un impact positif sur le niveau d’honnêteté des entreprises beaucoup plus net qu’un contrôle des prix. Par ailleurs, et comme cela a déjà été évoqué, face à une dissymétrie d’information dont un acteur est victime, celui-ci va lui-même mettre en œuvre une stratégie pour contrecarrer le comportement opportuniste de l’autre, qui est par exemple une stratégie d’incitation quand il s’agit de lutter contre le risque d’aléa moral. Cela explique que les problèmes de l’asymétrie d’information, qui font partie, comme ceux liés à l’incertitude, de la théorie des contrats, conduisent à la théorie dite de l’agence, qui traite spécifiquement de l’asymétrie d’information entre le principal qu’est l’actionnaire et l’agent qui est le dirigeant salarié de l’entreprise, et débouchent finalement sur la théorie dite de l’incitation.

80. Avant de conclure, faisons deux remarques qui nous ramènent à la politique de la concurrence de la Commission européenne. La première remarque porte sur deux évolutions contemporaines concernant les sanctions et les amendes infligées en cas de pratiques anticoncurrentielles. La première évolution est que ces amendes sont de plus en plus lourdes, comme si l’objectif poursuivi était seulement la dissuasion, et la seconde est que ces amendes sont beaucoup plus lourdes en matière de pratiques anticoncurrentielles qu’en d’autres matières, y compris le blanchiment d’argent, la fraude fiscale ou les délits d’initiés ! Il y a donc des réformes à envisager pour que soient davantage respectés le principe de la proportionnalité des amendes et celui de la cohérence générale des sanctions. La seconde remarque porte sur l’émergence d’un consensus entre juristes et économistes pour que l’analyse économique fasse tous les progrès nécessaires de façon à apporter des réponses robustes aux questions que les juristes se posent pour la mise en œuvre de la politique de la concurrence. Un bon exemple a été donné au cours de la précédente décennie avec le lancement des procédures de clémence puisque ce type de politique de détection d’ententes illicites s’est fondé sur des simulations économétriques faites dans les années 1980 et 1990. Il faut aujourd’hui poursuivre dans cette voie, en particulier dans le but de détecter les cartels quand l’entente n’est pourtant pas explicite.

81. Pour conclure, je me permettrais une réflexion iconoclaste et qui peut sembler, mais a priori seulement, nous faire sortir de notre sujet : pour comprendre ce qui se passe aujourd’hui dans la zone euro, et en particulier les tensions manifestes entre les pays du Nord et ceux du Sud que créent les difficultés actuelles, il faut se rappeler qu’en Europe comme ailleurs, les comportements des uns et des autres trouvent l’essentiel de leurs explications dans les profondeurs de leur histoire, de leur culture, de leurs obsessions collectives propres. En ce qui concerne l’Allemagne, son comportement se nourrit à deux sources historiques fondamentales : le Zollverein et l’ordolibéralisme. Au risque de caricaturer, on peut prétendre que la formation du Zollverein a servi de modèle pour la construction du Marché commun et que l’ordolibéralisme, qui explique clairement le comportement monétaire et financier de l’Allemagne, permet de comprendre aussi de nombreux aspects de la politique de la concurrence européenne ; c’est pour cela que la politique de la concurrence en Europe n’est pas une simple duplication du modèle américain. En définitive, l’actualité nous interpelle : comme l’Allemagne se comporte comme un pays leader, il serait sans doute intéressant d’utiliser les enseignements de la théorie du duopole et de la théorie des jeux pour mieux apprécier les enjeux européens actuels.

Monsieur le Professeur Christian Bialès

Professeur de chaire supérieure en Économie et Gestion

Membre du Conseil scientifique du Concurrentialiste

Related Posts

1 Response

Leave a Reply