samedi 16 janvier 2021 - par Paul Jael

L’économie politique néoclassique, fait-elle l’apologie du capitalisme ? 1ère partie

 

Depuis le troisième quart du dix-neuvième siècle, l’école néoclassique domine impérialement la théorie économique. Son origine remonte à l’énoncé de la théorie de l’utilité marginale par Jevons et Menger (1871) ainsi que Walras (1874), quoi que des précurseurs les aient devancés. Depuis longtemps, son hégémonie est presque totale.

Elle se voit régulièrement reprocher que ses lois économiques soutiennent le système économique capitaliste ou à tout le moins l’économie de marché. C’est en tout cas la thèse marxiste[1], mais elle est partagée bien au-delà de ce cercle.

 

[1] Les marxistes ont une raison particulière d’en vouloir à l’école néoclassique. C’est elle qui a rejeté la théorie de la valeur-travail hors de l’économie politique.

La question économique et sociale est au centre de la politique, raison pour laquelle il est rare qu’un économiste soit dénué d’opinions politiques. Mais tous les économistes néoclassiques, sont-ils de droite ? La réponse est négative. Quelques unes des grandes figures qui ont œuvré au développement de cette école avaient des idées de gauche : Philip Wicksteed (1851-1927), Knut Wicksell (1851-1926), Abba Lerner (1903-1982), Oskar Lange (1904-1965), Joan Robinson[1] (1903-1983). Frank Knight (1885-1972) n’a pas la réputation d’être à gauche, mais ses « Ethics of Competition » constituent une critique au vitriol de l’esprit du capitalisme et de son idéologie.

Répondre à notre question implique de distinguer l’économie positive et l’économie normative. On entend régulièrement des responsables de la sphère politiques ou socioéconomique en appeler au respect des « lois de l’économie » qui s’imposent aux processus sociaux et qui les punissent inexorablement lorsque ceux-ci manquent de discipline. Manifestement, les lois invoquées jugent négativement tout ce qui s’apparente à de la générosité sociale ; elles semblent généralement plus soucieuses du bien des possédants que de celui des moins nantis. Mais ce discours reste généralement très vague sur ces lois : que disent-elles précisément, quelles sont les conditions de leur validité ? Cet appel aux lois paraît plus partisan que scientifique. L’économie positive, quant à elle, n’a pas pour objet de distribuer des bons et des mauvais points. Elle énonce effectivement des lois, sous la forme de théorèmes. Partant d’hypothèses, ceux-ci apportent une démonstration à une thèse. Le plus souvent, la forme d’expression est mathématique. Pour la clarté, cette méthode comporte un avantage et un inconvénient. L’avantage est d’exprimer les hypothèses explicites de la façon la plus claire. L’inconvénient, c’est que les hypothèses implicites sont au contraire enfouies dans une espèce de néant presque insondable. Le technocrate qui émet des jugements normatifs est censé transposer à l’adresse de l’économie réelle des conclusions pêchées de façon pertinente dans l’économie positive. Il y a donc forcément une dose d’interprétation, un choix de ce qui semble le théorème le plus pertinent au vu de la situation à analyser, situation qui doit être proche des hypothèses du modèle. Lorsque le discours technocratique s’adresse à un béotien, celui-ci n’est pas armé pour apprécier de façon critique le passage du positif au normatif qui lui est asséné.

Notre objet n’est pas l’économie normative, magma infini d’avis, de propositions, de conseils, de recommandations, de remontrances en tous genres. Nous nous attacherons ici à l’économie positive en tant que corpus de connaissance scientifique[2]. Ses théorèmes n’étant pas directement normatifs, la question est de savoir si certains d’entre eux suscitent une interprétation concluant à la justice du capitalisme, à son harmonie ou à son efficacité, si la conclusion politique est latente dans le théorème.

Pour conduire cette investigation, il nous faut distinguer le cas de la microéconomie (analyse des actions des agents économiques et de leurs interactions) de celui de la macroéconomie (analyse globale de l’économie). La première se prête mieux à l’idéologie, car elle est plus abstraite, plus théorique, donc plus idéale dans tous les sens du terme. La seconde, plus concrète, inclut la monnaie et l’action du gouvernement et s’intéresse aux effets de la politique économique. Les principes essentiels du capitalisme, l’entreprise, le marché, la rémunération des facteurs de production relèvent de la microéconomie. La macroéconomie comporte une autre particularité qui la distingue de sa discipline sœur : elle est traversée depuis 1936 par une division entre deux courants antagoniques : le keynésianisme et la macroéconomie classique. Le premier qui admet la possibilité d’un équilibre de sous-emploi et appelle à l’intervention de l’Etat ne peut être suspecté d’apologie du capitalisme. Les défenseurs inflexibles du capitalisme rallient le camp opposé, celui qui prêche le « laisser faire, laisser passer ». On trouve des économistes néoclassiques dans les deux camps. De grands économistes comme John Hicks (1904-1985), Paul Samuelson (1915-2009), Robert Solow (1924-) ou Gregory Mankiw (1958-) étaient ou sont à la fois néoclassiques et keynésiens[3].

  1. Microéconomie

J’examinerai deux thèses de la microéconomie néoclassique qui semblent potentiellement apologétiques :

  • L’affirmation qu’il existe un équilibre général et qu’il est optimal
  • La détermination de la rémunération des facteurs selon la productivité

Pour chacune d’elles, je tenterai de répondre à deux questions :

  • En quoi sert-t-elle le capitalisme ?
  • La démonstration du théorème concerné, n’est-elle pas tellement artificieuse, tirée par les cheveux qu’on pourrait interpréter cet acharnement comme révélateur d’une intention apologétique ?

1.1- L’équilibre général

L’équilibre général, c’est l’égalité entre l’offre et la demande qui s’établit simultanément sur tous les marchés tant des biens que des facteurs. Son caractère optimal, signifie que sa réalisation permet à chaque acteur de maximiser l’utilité qu’il obtient en échangeant des biens et facteurs de son panier initial. Le premier économiste qui en a eu l’intuition et en a tenté une démonstration est Walras (1874). So modèle transpose l’économie dans un système d’équations simultanées ; la démonstration de l’équilibre consiste à relever que le nombre d’inconnues est égal au nombre d’équations. Elle est bancale du point de vue mathématique, cette condition n’étant ni suffisante ni nécessaire. Dès les années 1930, des économistes mathématiciens, appelés « néo-walrassiens » cherchent de nouvelles voies, ce qui mène finalement à la fameuse démonstration de Kenneth Arrow (1921-2014) et Gérard Debreu (1921-2004) en 1954, basée sur des outils mathématiques complexes.

Cette théorie, sert-elle le capitalisme ?

Adam Smith, grand économiste de l’école classique, écrivait en 1776 :

 “by directing that industry in such a manner as its produce may be of the greatest value, every individual intends only his own gain, and he is in this, as in many other cases, led by an invisible hand to promote an end which was no part of his intention. (…) By pursuing his own interest he frequently promotes that of the society more effectually than when he really intends to promote it”.[4]

Cette phrase exprime l’idée que l’économie de marché favorise l’intérêt général même sans intervention publique. Les économistes néo-walrassiens considèrent que leur modèle confirme de façon savante l’intuition de Smith.

Il convient toutefois d’apprécier correctement ce que dit le théorème. Il s’agit d’un modèle statique. Le progrès technique est donc absent. L’économie néoclassique postule une conception de la concurrence qu’elle qualifie de « parfaite » et qui signifie que les acheteurs et les vendeurs (nécessairement très nombreux sur chaque marché) sont de taille négligeable de telle façon que leurs décisions prises individuellement sont incapables d’influencer le prix. Il est clair que si deux siècles de capitalisme industriel ont autant accru le revenu, ce n’est pas ce théorème qui peut l’expliquer. Cette citation de Josef Schumpeter (1883-1950), pourtant lui aussi d’inspiration néoclassique, l’exprime de manière percutante :

“But in capitalist reality as distinguished from its textbook picture, it is not that kind of competition that counts but the competition from the new commodity, the new technology, the new source of supply, the new type of organization (…) This kind of competition is as much more effective than the other as a bombardment is in comparison with forcing a door and so much more important that it becomes a matter of indifference whether competition in the ordinary sense functions more or less promptly” [5]

Que reste-t-il alors de positif du théorème de l’équilibre et l’optimum dans un contexte walrassien ? Il reste que l’économie de marché ne gaspille pas les ressources. A partir d’une quantité de ressources disponibles, elle tire le meilleur parti compte tenu des connaissances techniques en vigueur. Mais les conditions du théorème sont compatibles avec une société pauvre à l’optimum walrassien et une société riche en dehors de cet optimum.

Y a-t-il un lien entre l’optimum et la justice de la répartition du revenu dans la société ? La conception de l’optimum qui prévaut est celle qu’introduisit Vilfredo Pareto (1848-1923), disciple et successeur de Walras à l’école de Lausanne. Il y a optimum lorsque l’ensemble des échanges conduit à une situation où il est impossible d’encore augmenter l’utilité d’un agent sans devoir diminuer celle d’un autre agent. Il s’agit donc toujours d’un optimum par rapport à une répartition initiale des ressources qui est donnée. L’optimalité parétienne est relative et elle ne juge donc pas les répartitions. Mais Lange et Lerner, disciples de Pareto, ont démontré qu’à partir de toute répartition initiale, un optimum de Pareto est accessible. Le leçon politique qu’on peut en tirer est que le gouvernement qui veut influencer la répartition du revenu doit effectuer des transferts plutôt qu’altérer le fonctionnement des marchés mais que ces redistributions auront leur propre optimum de Pareto. Cette conclusion devrait plutôt convenir aux partis de gauche.

Y a-t-il acharnement démonstratif ?

Les hypothèses sont-elles raisonnables ? Voici les plus importantes :

    • Pour chaque firme, convexité de l’ensemble de ses plans de productions faisables. La convexité est une propriété purement mathématique mais sa traduction économique n’est pas insignifiante, car elle exclut les rendements d’échelle croissants.
    • Les préférences des ménages quant aux paniers de consommation[6] sont convexes et la saturation est exclue. Cette hypothèse est plausible.
    • La concurrence est « parfaite » au sens expliqué ci-avant. C’est une hypothèse fortement irréaliste. Sur la plupart des marchés réels, le nombre de firmes est insuffisant par rapport à ce critère. Cela ne signifie pas qu’il n’y a pas de concurrence mais que le modèle de concurrence ne capture pas correctement le comportement concurrentiel des entreprises.
    • L’incertitude est une caractéristique essentielle de la vie économique. Arrow et Debreu ont une façon très particulière de l’intégrer dans leur modèle. Leur équilibre est intertemporel dans le sens où se jouent en une fois les prix et les échanges jusqu’à la fin des temps. Chaque bien à chaque date est un marché à équilibrer. Le nombre de marchés est donc immense et l’est d’autant plus qu’il y a un marché distinct pour chaque état contingent du monde à chaque date. La réalité économique présente évidemment toujours une structure incomplète de marchés. En outre, les agents du modèle sont des surhommes capables de déterminer pour chaque date pour chaque état contingent quelle quantité de tous les biens ils offrent ou demandent aux différents prix proposés. Bref, ce modèle ne rend pas compte de l’incertitude telle qu’elle sévit dans l’économie réelle.
    • A côté de ces hypothèses explicites, il y a l’hypothèse implicite que des courbes de demande individuelles décroissantes par rapport au prix, lorsqu’elles sont agrégées pour constituer la demande du marché, produisent une courbe de demande agrégée également décroissante par rapport au prix. Mais au début des années 1970, les économistes Sonnenschein, Debreu et Mantel se rendirent compte que ce n’est pas le cas, que la courbe agrégée pouvait fort bien revêtir des formes diverses. Ce résultat, connu comme le « théorème SDM » dérange les économistes néoclassiques qui lui laissent peu de place dans leur exposé.

Je laisse au lecteur le soin de juger si les hypothèses ne sont pas choisies pour « forcer » le résultat.

Supposons que malgré les difficultés, il existe un ensemble de prix qui équilibre tous les marchés. Pour que l’économie soit équilibrée, il ne suffit pas que l’équilibre existe en théorie, il faut encore que l’économie trouve le chemin vers cet équilibre. Ce problème est connu sous l’appellation « stabilité de l’équilibre », qui signifie que lorsque l’économie est hors de l’équilibre, les forces du marché tendent à l’y amener. L’astuce de Walras consiste à postuler l’existence d’un commissaire-priseur qui crie les prix sur tous les marchés et par essai-erreur les corrige en fonction des déséquilibres constatés jusqu’à ce que tout déséquilibre ait disparu. Les échanges réels ne commencent qu’à ce moment, car tout échange hors équilibre est proscrit du modèle. L’absence de ce commissaire dans l’économie réelle y rend l’émergence de l’équilibre plus difficile que dans le modèle walrassien. Mais supposons qu’un bouleversement institutionnel mette un commissaire aux commandes de l’économie. Peut-il se forger une règle de conduite dont l’application le mènerait sûrement à l’équilibre ? Les recherches en cette matière furent décevantes en ce sens que les conditions nécessaires à la stabilité s’avèrent irréalistes.

Depuis plus d’un siècle, le commissaire walrassien, tel un fantôme, hante l’économie politique, car la théorie néoclassique peut difficilement se passer de lui. Une alternative à son intervention a toutefois été conçue par Francis Edgeworth (1845-1926) et reprise par Debreu et Scarf dans les années 1960. L’idée est que si les nombreux intervenants sur le marché constituent des coalitions de plus en larges entre eux, ils parviendront à « bloquer » tout échange dont le prix ne serait pas le prix d’équilibre. Ici aussi, il est difficile de reconnaître le fonctionnement de l’économie réelle.

Concluons avec mon avis sur l’équilibre général ; il doit exister dans la réalité un « presque-équilibre » presque stable pour autant qu’on exclue toute considération macroéconomique (comme le cycle conjoncturel). Le mouvement économique est généralement perçu comme source de déséquilibre, mais je crois que c’est lui qui maintient l’économie en presque-équilibre.

1.2- La rémunération des facteurs

L’économie néoclassique considère les facteurs de production sur le même pied que les produits et services. Leur rémunération est donc un prix d’équilibre entre une offre et une demande.

  •  

<Offrir du travail ou du capital est considéré comme un sacrifice dont le poids augmente avec la quantité offerte.

  • Offrir son temps pour travailler réduit l’utilité générale du ménage en diminuant le temps gardé pour soi.
  • Dans un premier temps, l’épargne, c’-à-d. l’offre du capital, était assimilée à de l’abstinence, mais depuis Eugen von Böhm Bawerk (1851-1914), le concept d’attente a remplacé celui d’abstinence. L’épargne est conçue comme une consommation différée, qui représente un sacrifice puisque nous sommes censés préférer une consommation présente à une consommation égale dans le futur. C’est la fameuse hypothèse de la préférence pour le présent, parfois encore appelée impatience.

<La loi de la productivité marginale décroissante affirme que plus on engage d’un facteur en maintenant constante la quantité des autres, moins les différentes unités ajoutées seront productives. L’entreprise n’a donc pas intérêt à payer tel facteur plus que la valeur de sa productivité marginale (celle de la dernière unité active), sinon sa présence serait génératrice de pertes. Mais la concurrence entre les entreprises amènera la rémunération à ne pas être inférieure non plus, sinon engager plus mènerait à un gain. La courbe de demande d’un facteur de production correspond donc à sa courbe de productivité marginale en valeur (quantité multipliée par le prix de vente).

Si tout cela est correct, la conclusion s’impose que toute rémunération est égale à la productivité marginale de celui qui la reçoit. Ce qui ne signifie pas que la productivité marginale détermine la rémunération, puisqu’elle-même est fonction de la quantité du facteur qui dépend de son prix. Il s’agit plutôt d’une détermination commune dans le cadre de l’équilibre général.

Le concept d’impatience est devenu un des piliers de l’économie néoclassique et s’est invité dans la théorie de l’équilibre général, puisque celle-ci est devenue intertemporelle avec des marchés futurs aussi bien que des marchés présents. L’impatience amène les prix futurs à être inférieurs aux prix présents pour un bien identique. Telle est la base sur laquelle est bâtie la théorie moderne de l’intérêt.

La théorie de l’attente, sert-elle le capitalisme ?

Elle apporte une couverture idéologique dans la mesure où la rémunération du capital doit être justifiée. En quoi sa justification, serait-elle problématique ? La théorie marxiste y voit de l’exploitation. Mais pour des raisons que j’ai exposées dans d’autres articles, la théorie de la plus-value n’est pas pertinente.

L’inégalité dans nos sociétés est certes injuste, mais elle est due à la mauvaise répartition des patrimoines, un fait que la théorie de l’attente ni ne cautionne ni ne critique. Beaucoup d’auteurs, notamment Pareto, Böhm Bawerk, Cassel ont d’ailleurs fait valoir très justement que sous une forme ou sous une autre, l’intérêt devrait subsister dans une société socialiste, car l’attente des résultats d’un investissement représente un coût social dont le planificateur devrait tenir compte.

La théorie de la productivité marginale, sert-elle le capitalisme ?

Certains s’en sont servis, sans aucun doute. Mais aucun grand économiste n’a franchi le pas consistant à prétendre explicitement que chacun est rémunéré selon son mérite, car la productivité n’est pas synonyme de mérite et la productivité marginale encore moins. La productivité marginale est en effet influencée par une multitude de facteurs liées au contexte socioéconomique, par exemple à l’évolution démographique.

John Bates Clark (1847-1938), le principal initiateur de cette théorie, fut très proche de franchir le pas lorsqu’il écrivit : “The right of Society to exist in its present form, and the probability that it will contribute so to exist, are at stake”[7]. Il prétendit même que sa loi fournit la raison de n’être pas socialiste. Mais la plupart des économistes néoclassiques se montrèrent plus prudents. En témoignent ces deux citations :

Frank Knight : “The income doesn’t go to factors but to their owners and can in no case have more ethical justification than has the fact of ownership. The ownership of personal or materiel productive capacity is based upon a complex mixture of inheritance, luck and effort, probably in that order of relative importance. What is the ideal distribution from the standpoint of absolute ethics may be disputed, but of the three considerations named certainly none but the effort can have ethical validity”[8]

Cobb et Douglas : “…even if there were precise correspondence, it (NDLR : le résultat de leur analyse) would not furnish any light upon the question as to whether capital for example should be privately owned to the degree to which it is in our society. For while capital may be “productive”, it does not follow that the capitalist always is.”[9] [1928, p.164)]

Y a-t-il acharnement démonstratif ?

Il y aurait beaucoup à dire quant à la crédibilité de la préférence pour le présent[10]. Mais je me contenterai d’analyser le rapport des économistes néoclassiques à la productivité marginale. Voyons d’abord si ses hypothèses sont raisonnables ? Voici les plus importantes :

  1. Commençons avec la principale, qui met en œuvre le concept de fonction de production. C’est ainsi que les économistes appellent la fonction qui exprime sous une forme mathématique la dépendance de la quantité produite par rapport aux quantités des facteurs de production ; il s’agit donc d’une fonction à plusieurs variables (une par input). Dès 1894, Wicksteed avait prouvé que les dérivées partielles de cette fonction correspondaient aux productivités marginales des facteurs. Il s’était également posé la question dite de l’épuisement du produit  : en rémunérant tous les intervenants à leur productivité marginale, épuise-t-on exactement la valeur du produit ? En fait, la réponse n’est positive que si la fonction de production a une propriété bien définie : elle doit être homogène de degré un. Ce charabia mathématique correspond à une situation économique concrète : les rendements d’échelle[11] doivent être constants. Lorsqu’ils sont croissants, il y a un résidu négatif (perte) ; lorsqu’ils sont décroissants, il y a un résidu positif (gain). Ce résidu échoit à l’entrepreneur. Le facteur de production qui est entrepreneur (généralement le capital) gagnera donc une rémunération différente de sa productivité marginale lorsque les rendements d’échelle ne sont pas constants.
  2. On l’aura compris, la variabilité des facteurs est essentielle. D’abord, la productivité marginale ne détermine la rémunération d’un facteur que si l’entreprise peut faire varier sa quantité. S’il est fixe par nature, comme le CEO nécessairement unique, sa rémunération échappe forcément à cette explication. Ensuite les proportions des facteurs doivent pouvoir varier infinitésimalement, sinon la productivité marginale n’est pas définie (elle est alors comprise dans une fourchette de valeurs).

 Or à court terme, il y a toujours des facteurs fixes ou semi-fixes. La loi ne serait valide que sur le long terme. Dans ces conditions, elle ne peut pas déterminer précisément les rémunérations dans le monde réel.

  1. La concurrence parfaite est nécessaire, tant sur le marché des facteurs que sur celui du produit. Arthur Cecil Pigou (1877-1959) et Joan Robinson ont analysé les cas non concurrentiels ; il s’avère que la rémunération s’y écarte de la productivité marginale. Tous deux usèrent du terme « exploitation du travail » pour qualifier les cas où le salaire est inférieur à la valeur de la productivité marginale.

Il importe aussi de savoir que la théorie de la productivité marginale a des rivales. Ainsi, une branche particulière de l'école néoclassique, l'école autrichienne, considère que la rémunération du capital ne correspond pas à sa productivité marginale, mais à la productivité marginale de l’allongement de la période de production[12]. Wicksell, héritier de Böhm Bawerk (le fondateur de cette tradition), a démontré mathématiquement que les deux ne concordent généralement pas. Sur base des travaux de Wicksell et de l’école de Cambridge, Bhaduri a démontré que la rémunération du capital n’égale sa productivité marginale que si l’intensité en capital est identique dans tous les secteurs de production, une condition totalement irréaliste.

Le salaire a lui-aussi fait l’objet d’explications qui l’éloignent de la productivité marginale. Deux travaux bien connus partent de l’idée que l’entreprise peut s’en servir comme d’un incitant : le salaire d’efficience de Shapiro et Stiglitz et les tournois de Lazear et Rosen[13].

Y a-t-il eu des travaux empiriques pour valider la théorie de la productivité marginale ? Oui. Commençons avec le plus connu qui est également le plus ancien. En 1928, l’économiste Paul Douglas et le mathématicien Charles Cobb supposent une forme mathématique spécifique (homogène de degré un) qui devrait être celle de la fonction de production agrégée de l’industrie manufacturière aux Etats-Unis. Ils vont la tester statistiquement sur les indices de la production, de l’emploi et du capital investi de 1899 à 1922. Leur fonction est astucieuse, car elle compte parmi ses paramètres les parts du salaire et du profit dans le revenu total (posées à respectivement 3/4 et 1/4) qui sont directement liées à la productivité marginale du travail et du capital. La corrélation assez bonne entre l’indice de production calculé par la fonction et l’indice réel mènent Cobb et Douglas à conclure à la validité de la théorie de la productivité marginale ; ils doivent néanmoins reconnaître que la corrélation entre les indices des salaires observés et la productivité marginale du travail calculée se révèle assez faible, ce qui ne semble pas troubler leur optimisme. Autre motif de satisfaction : d’autres études statistiques confirment la part de 3/4 allant au travail.

Le travail de Cobb et Douglas a donné lieu à de nombreuses critiques, dont je ne mentionnerai que les deux plus fondamentales :

    • Paul Samuelson et Herbert Simon ont montré que la construction de la fonction de Cobb-Douglas est telle qu’il est presque impossible que la corrélation testée soit mauvaise. Cette corrélation n’est donc pas un test probant.
    • Franklin Fisher a démontré que l’agrégation de fonctions de production individuelles en une fonction globale n’est valide que moyennant des conditions très restrictives.

La productivité marginale n’est pas observable en tant que telle, mais des études en ont tenté l’estimation pour comparer celle-ci à la répartition des revenus réelle. Citons Gottschalk (1978) et Kampelmann et Rycx (2011). Les résultats sont plutôt décevants pour la productivité marginale.

Comme on le constate, l’ampleur des difficultés liées à la théorie de la productivité marginale rend suspecte l’obstination de ces économistes à la conserver comme un des fondements de leur corpus théorique.

2-Macroéconomie

La première partie s'arrête ici. Dans quelques jours sera publiée la deuxième partie consacrée à la macroéconomie.

 


[1] Qui contribuera grandement au marginalisme avant d’opter pour l’hétérodoxie.

[2] Je suis de ceux qui contestent que les sciences humaines soient scientifiques sur le même pied que les sciences naturelles, mais j’accepte de les qualifier de « sciences », vu que ces deux types de disciplines partagent un certain nombre de caractéristiques communes.

[3] Le keynésianisme est divisé en plusieurs sous-écoles. Certaines sont plus keynésiennes que d’autres.

[4] Smith, An Inquiry into the Nature and Causes of The Wealth of Nations, Methuen 1904 London p.421

[5] Schumpeter, Capitalism, Socalism and Democracy, Routledge 1976 London p.84

[6] Le travail est traité comme les autres biens. Les agents disposent d’une allocation quotidienne de 24 heures. Le travail offert est la différence entre ces 24 heures et le temps consommé.

[7] Clark The Distribution of Wealth : A Theory of Wages, Interest and Profits, Macmillan 1908, New York. P.12

[8] Knight « The Ethics of Competition », The Quarterly Journal of Economics, 1923, vol 38 n°3 p.598

[9] Cobb et Douglas, “A Theory of Production”. American Economic Review, December 1928,p.164

[10] Je voudrais quand-même insister sur un point : les économistes néoclassiques sont incapables de concevoir l’épargne autrement que comme une consommation différée. Que quelqu’un épargne pour la jouissance de posséder un capital n’intervient jamais dans leurs modèles.

[11] Lorsqu’on augmente la quantité de tous les facteurs de x%, la production augmente de y%. Si y = x, les rendements d’échelle sont constants. Ils sont croissants si y >x et décroissants si y< x. La variation équiproportionnelle de tous les facteurs est quelque chose de très différent de la variation d’un seul des facteurs qui entre dans la définition de la productivité marginale. Notamment, elle prend plus de temps.

[12] La place ne me permet pas de donner plus d’explications ici. Le lecteur intéressé se référera à mon ouvrage en ligne « Ombres et lumières de l’économie politique ».

[13] Plus d’explications dans mon article en ligne « Sommes-nous payés selon la productivité marginale ? ».




Réagir