Le socios de Le Média

Pour devenir socio de Le Média, la future web-TV des amis de M. Mélenchon, vous devez (i) acquérir un ou plusieurs titres de propriété de Le Média (5 euros l’unité) et (ii) régler une contribution destinée à « financer le Média » (en fonction de vos revenus de 50, 80, 120 ou 200 euros). C’est le paiement de ces deux sommes, appelé droit d’entrée, qui fait de vous un socio. Les conditions générales stipulent très clairement qu’aucune cotisation n’est demandée.

En contrepartie, vous promettent-ils, vous deviendrez propriétaire du nouveau média (selon la homepage) ou, du moins, d’une partie de celui-ci via l’association « Le Média » (selon la page socios, j'y reviens) et vous bénéficierez d’un certain nombre de « services exclusifs » comme, par exemple, le droit de publier un avis et de commenter les programmes ou, plus prosaïquement, celui d’avoir votre nom au générique d’un programme de votre choix.

À l’heure où j’écris ces lignes, Le Média revendique 9 421 socios pour 1 117 972 euros récoltés. À vue de nez, ça fait plus de 9 000 gogos qui se sont fait avoir. Explications.

Pas de cotisation ?

Chez Le Média, il n’y a pas de cotisation — promis, juré — mais il y a une contribution mensuelle. C’est celle qu’on vous demande au titre des droit d’entrée pour « financer le Média », celle que vous pouvez régler en une fois (les 50, 80, 120 ou 200 euros) ou en 10 fois [1] (soit 5, 8, 12 ou 20 euros). Il n’y a donc pas de cotisation mais une contribution au titre de l’année 2018. Le vous laisse apprécier la portée de cette subtile distinction sémantique.

Et après ? Eh bien il semble qu’aucune cotisation ne sera effectivement réclamée aux socios pour l’année 2019. En revanche, et les conditions générales sont tout à fait claires sur ce point, « le droit d’accès à ces services exclusifs fera l’objet, à compter de 2019, d’une participation financière dont les modalités seront plus tard déterminées par l’association. » Toujours pas de cotisation, donc, mais une participation financière.

Bref, de toute évidence, Le Média joue sur les mots. Non seulement les socios devront bel et bien s’acquitter d’une cotisation tous les ans pour continuer à bénéficier de leurs « services exclusifs » mais la liste de ces derniers est modifiable à volonté et le montant des cotisations à partir de 2019 et parfaitement inconnu. Mais, me direz-vous, ils restent quand même propriétaires de Le Média.

Propriétaires ?

Eh bien non, au risque de décevoir ceux de nos amis insoumis qui ont souscrit à cette offre alléchante, ils ne sont propriétaires de rien du tout. Ces multiples de 5 euros qu’ils ont versé à l’association « Le Média » ne sont qu’un droit d’entrée qui, contrairement à ce qu’affirment les conditions générales, n’ont aucun rapport avec un titre de propriété.

De fait, si Le Média réalise des bénéfices, ils ne toucheront pas un centime — ce qui devrait les ravir — mais ils ne peuvent non plus vendre leurs titres [2] et surtout, ces derniers ne leur donne absolument aucun pouvoir de décision.

C’est absolument limpide dans les statuts de l’association : l’Assemblée Générale n’est constituée que des membres fondateurs — Sophia Chikirou et de Gérard Miller — et des socios cooptés par ces derniers (les membres correspondants). Le fait d’être socio, en soit, ne donne absolument aucun pouvoir : votre seul droit consiste à pouvoir « soumettre des demandes au bureau » ; lequel n’est naturellement pas tenu d’y donner suite.

En d’autres termes, les heureux socios de le Média ne sont propriétaires de rien du tout. Au mieux, s’ils sont cooptés par le bureau des fondateurs, pourront-ils donner leur avis lors des Assemblée Générales à venir. Et encore, vu le niveau de verrouillage du machin, je crains fort que les délibérations aient une fâcheuse tendance à donner systématiquement raison aux fondateurs.

De la nature de Le Média

Le grand mystère, c’est la nature exacte de Le Média. Je l’ai dit plus haut, la page socios affirme qu’en devenant socio « une partie du Média m’appartient via l’association ‘Le Média’ ». J’ai déjà expliqué que pas du tout : verser un droit d’entrée à une association — fût-il appelé « action » — ne donne aucun droit de propriété mais ce qui est intéressant ici c’est ce que cette simple phrase suggère des relations entre l’association « Le Média » et Le Média lui-même.

De fait, comme on ne peut pas être propriétaire d’une association, cette histoire de « partie » suggère que l’association « Le Média » va être propriétaire d’une partie de Le Média et donc, qu’il y aura d’autres propriétaires. Si j’ai raison, ça signifie que l’argent des socios, via l’association sur laquelle ils n’ont aucun contrôle, va servir à capitaliser une autre entité [3]. Or, si c’est bien le cas, on est en droit de se demander qui sont les autres propriétaires et surtout à hauteur de combien ils comptent capitaliser Le Média.

À ce stade, une prudence de chat s’impose et je n'irais pas plus loin.

---
[1] En 10 fois parce que vous bénéficiez de 2 mois gratuits pour toute souscription avant la fin de l’année 2017.
[2] Sauf si l’association décide de les racheter.
[3] Le propriétaire actuel de lemediatv.fr n’est autre que la société de Mme Chikirou qui jure que c’est provisoire. Dont acte.

Le marché des actions US est-il si cher que ça ?

Avec un Price-to-Earnings Ratio (cours sur bénéfices nets) désormais nettement supérieur à 20, le marché des actions américaines apparaît désormais très cher et même, selon nombre de commentateurs, trop chers. Cela fait plusieurs mois que le mot en B (« bulle ») a été prononcé [1] et force est de reconnaître que, sur la seule base de ce ratio, c’est effectivement le cas. Néanmoins, un rapide retour sur la théorie de la valorisation donne un éclairage tout à fait différent.

Si le PER est un ratio très couramment utilisé sur les marchés, les chercheurs qui s’intéressent à la valorisation des actions utilisent plus volontiers son inverse : le Earnings Yield. En notant $E$ le niveau actuel des bénéfices nets et $P$ le prix du marché, le Earnings Yield s’écrit simplement :

$$\frac{E}{P} $$

C’est donc la même mesure mais exprimée sous forme de taux plutôt que de ratio. Si nous utilisons plus volontiers cette présentation c’est que, contrairement au PER, elle a une signification très précise. En substance, si vous considérez le modèle d’actualisation de cash-flows suivant :

$$ P_0 = \sum_{t=0}^\infty \frac{E_t}{(1+k)^t} $$

Et si vous supposez de surcroît que les bénéfices net ($E_t$) resteront constant (c’est-à-dire que tous les $E_t$ sont égal à un seul et unique $E$) alors, le taux d’actualisation du modèle ($k$) nous est donné par le Earnings Yield. En d’autres termes, dans un modèle d’actualisation de bénéfices nets constants, le Earnings Yield est, par définition, le taux de rendement interne de l’action ou du marché considéré.

À fin juin, sur la base des estimations de Standard & Poor’s, le Earnings Yield du S&P 500 était de l’ordre de 9.55% — ce qui reste relativement faible au regard de l’histoire sur longue période.

Mais la valorisation du marché des actions ne saurait être considérée isolément des autres actifs. En tant qu’investisseurs, nous ne cherchons pas tellement à savoir si les actions sont chères ou bon marché : nous souhaitons surtout avoir s’il vaut mieux investir sur des actions ou sur une alternative peu risquée comme, typiquement, les obligations d’État à long terme. En d’autres termes et puisque nous disposons d’une estimation grossière du taux de rendement interne des actions, nous souhaitons comparer ce dernier au taux des obligations.

Voici, par exemple, le Earnings Yield du S&P 500 comparé au taux des obligations d’État américaines à 10 ans (10-Years Treasuries) depuis 1988.

Comme vous pouvez le constater, le Earnings Yield du S&P 500 est, ces dernières années, nettement plus attractif que le taux des Treasuries à long terme. Très concrètement, ça signifie qu’en supposant que les bénéfices nets des actions qui composent le S&P 500 restent constants, nous avons les meilleurs raisons du monde d’investir que le marché des actions plutôt qu’en obligations d’État.

Néanmoins, ce graphique pose un problème : jusqu’au milieu des années 2000, le taux de rendement interne des actions était inférieur à celui des obligations d’État. Non seulement ça ne correspond pas du tout à la réalité des rendements observés depuis mais c’est théoriquement impossible : les actions étant plus risquées que les obligations souveraines, leur taux de rendement ex-ante devrait être supérieur ; c’est-à-dire que la prime de risque des actions devrait toujours être nettement positive.

Cette apparente contradiction s’explique très simplement : les coupons et la valeur d’amortissement d’une obligation à taux fixe restent constants dans le temps mais, dans le cas d’une action, nous avons quelques raisons d’anticiper que les dividendes, les résultats net et le prix iront croissant dans le temps. De fait, si on limite l’analyse aux trente dernières années, les bénéfices enregistrés par le S&P 500 ont augmenté d’environ 5% par an.

Nous sommes donc fondés à modifier notre modèle de valorisation du marché des actions pour y intégrer un taux de croissance ($g$) des bénéfices. C’est une variante du Gordon Growth Model  avec $E_1$ le niveau estimé des bénéfices nets dans 1 an :

$$ P_0 = \frac{E_1}{k-g} $$

Avec un peu d’algèbre, vous pouvez facilement vérifier que notre taux de rendement interne ($k$) s’écrit simplement :

$$ k = \frac{E_1}{P_0} + g $$

En retenant un taux de croissance des bénéfices ($g$) de 5%, voici les taux de rendement interne du S&P 500 et des Treasuries à 10 ans depuis 1988 :

Cette fois-ci, la prime de risque des actions est bel et bien positive (5.2% en moyenne) — ce qui, incidemment, est conforme à la superformance à long terme du S&P 500 par rapport aux Treasuries à 10 ans. Graphiquement, voici l’évolution de la prime de risque du S&P 500 depuis 1988 :

Évidemment, ça reste une estimation grossière (il faudrait, notamment, lisser les bénéfices pour ne pas tenir compte des mouvements de court terme comme la chute de 2009) mais vous conviendrez que, vu sous cet angle, le marché des actions est nettement plus attractif que ce que suggère un simple PER considéré isolément.

---
[1] Ça viendra mais je pense que nous n’y sommes pas encore.

L'océan de cash

Du 4 juillet 2007 au 5 juillet 2017, le total du bilan de la Federal Reserve [1] est passé de 860 à 4 4 trillions de dollars — c’est à dire qu’il a quintuplé. À l’actif de la banque centrale étasunienne, cette croissance phénoménale se traduit par l’explosion de son portefeuille d’obligations émises par le Department of the Treasury — lequel atteint aujourd’hui 2,5 trillions — auquel se rajoutent les titrisations de créances hypothécaires (Mortage-Backed Securities) rachetées à Fannie Mae et Freddie Mac pour environ 1,8 trillions.

Il s’agit, bien sûr, des conséquences d’une politique monétaire historiquement accommodante qui a conduit la Fed à intervenir massivement sur le marché obligataire. Très schématiquement : la Fed a créé des dollars ex-nihilo, ce qui ne lui coûte presque rien, et c’est servi de la monnaie ainsi créée pour racheter massivement les obligations qui se trouvent aujourd’hui sur son bilan. L’objectif, naturellement, étant de faire baisser les taux et ainsi — du moins l’espère-t-on — relancer le crédit, l’investissement, la croissance et l’emploi.

C’est-à-dire que le financement, au passif, de cette prodigieuse opération c’est fait via de la création monétaire. Pourtant, force est de constater que cette gigantesque injection monétaire ne s’est pas traduite par de l’inflation. La raison en est fort simple : les banques commerciales n’ont pas relayé la politique de la Fed c’est-à-dire qu’elles n’ont pas ou peu prêté ces dollars fraîchement créés. De fait, plus de 70% de l’injection monétaire n’a, pour ainsi dire, jamais quitté la banque centrale : cet argent est resté sur les comptes de dépôts des banques commerciales auprès de la Fed sous forme de réserves excédentaires.

C’est donc un océan de cash — plus de 2 trillions de dollars à la fin du mois de juin — qui est détenu par les banques sur leurs comptes de dépôts ou dans leurs coffres sans qu’aucune contrainte règlementaire ne les y force. Mais pourquoi diable les banques n’utilisent-elles pas cet argent pour accorder des crédits ? On peut, je crois, expliquer ce phénomène de deux façons qui se complètent.

La première tient, d’une part, à des emprunteurs qui ont, ces dernières années, plutôt cherché à se désendetter qu’à contracter de nouvelles dettes et, d’autre part, à des banques qui anticipent depuis longtemps l’inévitable remontée des taux. Si vous voulez bien vous mettre à la place d’un banquier quelques instants, considérez qu’on vous propose de prêter à des taux fixes historiquement bas sachant que vous savez que les taux auxquels vous devrez tôt ou tard refinancer ces crédits ont toutes les chances d’être bien plus élevés. Objectivement, ça incite à la modération et ce, d’autant plus que la pente de la courbe des taux — écrasée la Fed — ne rémunère que très mal ce type de risques.

Reste à savoir que faire de cet océan de cash et c’est là que la deuxième explication intervient : il se trouve que, depuis la fin 2008, la Federal Reserve rémunère les dépôts que les banques font auprès d’elle. Au départ c’était 25 points de base — ce qui était nettement mieux que le marché interbancaire ou les billets du Trésor (Treasury Bills) — puis, à partir de fin 2015, ce taux a été graduellement augmenté pour atteindre 1.25% en juin de cette année. En d’autres termes, pour une banque qui doit arbitrer entre prendre des risques mal rémunérés en accordant des crédits et profiter d’un taux de 1.25% sans le moindre risque, le calcul est vite fait.

Voilà où nous en sommes : la Fed souhaite manifestement normaliser sa politique monétaire et réduire la taille de son bilan mais elle sait mieux que quiconque qu’un océan de cash est prêt à se déverser sur l’économie. Je n’ai pas la prétention de savoir comment ils comptent s’y prendre — je ne suis d’ailleurs même pas certain qu’ils aient un plan — mais, de toute évidence, la manœuvre très risquée. À la moindre erreur, ce sont 2 trillions de dollars qui viendront noyer le système financier international ce qui, outre de l’inflation et un crash obligataire, viendra sans doute nourrir la plus spectaculaire des bulles spéculatives de l’histoire.

---
[1] C’est un abus de langage : il s’agît, en réalité, du bilan consolidé des 12 Federal Reserve Banks.

#Babel, capitalisme et libéralisme économique

Mal nommer les choses, écrivait Camus, c’est ajouter au malheur du monde. Que la définition d’un terme puisse évoluer dans le temps est chose acceptable mais, à un point du temps donné et dans une langue donnée, il est souhaitable que nous nous entendions sur le sens des mots — surtout quand ils sont largement utilisés dans le débat public. Je l’avais déjà fait, il y a quelques temps, avec le communisme ; je vous propose de remettre ça pour la distinction entre capitalisme et libéralisme économique.

Par capitalisme, on entend en général un système économique fondé sur la propriété privée des moyens de production. Concrètement, ça signifie que les entreprises appartiennent à des personnes physiques qui y investissent des capitaux en espérant en tirer des profits. Le capitalisme s’oppose aux différentes formes de propriété collective des moyens de production (socialisme, communisme…) dans lesquelles les entreprises appartiennent, du moins en principe, à tout le monde.

Par libéralisme économique, on entend normalement un système capitaliste fondé sur la liberté des marchés. Cette distinction est essentielle : un système économique peut parfaitement être capitaliste tout en restreignant plus ou moins sévèrement la liberté des marchés — auquel cas, il n’est pas libéral. C’est ce qui arriverait si, par exemple, vous étiez légalement propriétaire de votre entreprise mais que l’État vous garantissait un monopole légal, fixait par la loi le prix de vos produits ou forçait vos clients à les acheter.

C’est pour cette raison que les anglo-saxons parlent volontiers de free-market capitalism ou de laissez-faire capitalism. Pour celles et ceux qui, comme moi, défendent cette option le capitalisme est le meilleur des systèmes connus si et seulement si il s’accompagne de marchés libres (liberté d’entreprendre, liberté des prix, absence de monopoles légaux, absence de consommations forcées…). Dans le cas contraire, si les marchés ne sont pas libres, le capitalisme peut être aussi nocif — et même peut être plus nocif — que les systèmes collectivistes.

Le salaire minimum à 15 dollars de Seattle

En général, la (fonction de densité de la) distribution des salaires ressemble à quelque chose comme ça :

C’est-à-dire que relativement peu de gens touchent des salaires très bas (à gauche de la distribution), la plupart perçoivent un salaire proche du salaire médian (au milieu) et, plus on monte dans l’échelle des rémunérations (vers la droite), plus ça devient rare. Sur un graphique de ce type, le P.-D.G. d'une société du CAC 40 ou un joueur international de football se promènent à quelques dizaines de centimètres à droite de votre écran mais ces cas sont si exceptionnels que le trait bleu est invisible à l’œil nu.

Le point MinW indique le niveau du salaire minimum légal. À gauche de ce point, en rouge, vous trouvez toutes les personnes dont le travail vaut moins que le salaire minimum. Typiquement, ce sont des gens peu qualifiés, peu expérimentés et même souvent les deux. C’est-à-dire qu’étant donné le niveau du salaire minimum, ces gens-là sont tout simplement inemployables. C'est une des raisons pour lesquelles le taux de chômage des jeunes et des moins diplômés est considérablement plus élevé que la moyenne.

Une étude récente menée au Danemark illustre très bien cette idée en s’intéressant au taux d’emploi des jeunes autour de 18 ans. La raison en est qu’avant 18 ans, les différents accords de branche en vigueur au Danemark imposent un salaire minimum de 73 couronnes (DKK) en moyenne mais que, sitôt passé 18 ans, ce chiffre passe à 119 couronnes.

Un graphique résume parfaitement le résultat : à gauche, le salaire horaire moyen (en couronnes) des salariés de 16 à 20 ans en fonction de leur âge exact ; à droite le taux d’emploi correspondant. Très clairement : à 18 ans, le salaire moyen augmente de 40% — presqu’exclusivement à cause de la mise en œuvre des salaires minimum — et le taux d’emploi s’effondre de 33%.

Partant, vous comprenez sans difficulté qu’il y a deux façons de traiter le problème. La première, c’est de déplacer la zone rouge vers la droite c’est-à-dire de faire en sorte que ces gens acquièrent les compétences et/ou l’expérience qui leur manquent pour être employables à MinW. On parle, bien sûr, de formation et de tout dispositif propre à faire en sorte que les jeunes puissent mettre le pied à l’étrier et acquérir de l’expérience. L’autre solution, évidemment, c’est de baisser MinW (le déplacer vers la gauche).

Symétriquement, toujours selon la même idée, une hausse de MinW devrait toutes choses égales par ailleurs entraîner une hausse du chômage : ce sont les gens immédiatement à droite du salaire minimum qui vont voir leurs heures réduites ou carrément perdre leur travail.

Le contre-argument de celles et ceux qui plaident pour une augmentation du salaire minimum consiste à dire qu’en payant mieux les bas salaires — qui ont, habituellement, tendance à consommer une plus importante fraction de leurs revenus que les autres (qui en épargnent une partie) — on créé un surcroît de demande ; lequel va se retrouver dans le carnet de commande des entreprises qui, dès lors, embaucheront et compenseront l’effet décrit ci-dessus.

Tout le problème est là : cet effet revenu induit par la hausse du salaire minimum existe-t-il et si oui, compense-t-il l’effet prix sur les salaires ? En théorie, c’est assez difficile à dire mais une expérience en cours dans l’État de Washington apporte quelques éléments de réponse.

Comme vous le savez peut-être, le salaire minimum en vigueur à Seattle est passé de 9.47 dollars (USD) de l’heure à 11 dollars le 1er avril 2015 puis à 13 dollars le 1er janvier 2016 — une augmentation de plus de 37% en 9 mois — et il a atteint 15 dollars le 1er janvier 2018.

Or, il se trouve que l’État de Washington collecte des données extrêmement précises sur l’état du marché du travail local. En particulier, c’est un des rares États de l’union à recenser le nombre d’heures travaillées par les salariés. Un groupe de chercheurs de l’Université de Washington a donc profité de cette opportunité pour mesurer précisément l’impact des deux premières hausses du salaire minimum sur l’emploi des salariés les moins bien payés — en l’occurrence, celles et ceux qui touchent moins de 19 dollars de l’heure.

Si la première hausse — de 9.47 à 11 dollars, soit 16.2% — semble avoir eu un effet limité, la seconde — de 11 à 13 dollars — s’est accompagnée d’une réduction de 9% des heures travaillées par les bas salaires — soit qu’ils aient perdu leur emploi soit qu’on ait réduit leurs temps de travail. Au total, la hausse du salaire horaire ne compense pas cette perte d’heures et ces salariés ont subi, en moyenne, une perte de revenus de l’ordre de 125 dollars par mois.

C'est-à-dire que pour l'instant, il y a bien un effet revenu mais il est négatif. Le 1er janvier de cette année, le salaire minimum à Seattle est passé à 15 dollars ; on va voir ce que ça donne mais il a quelques raisons de ne pas être très optimiste. Les résultats devraient tomber ici.

Le temps continu en finance

Supposez que vous disposiez d’un capital de 1 et que votre banquier vous propose de l’investir sur un compte rémunéré à hauteur de 100% [1] pendant 1 an. À la fin de l’année, de combien disposerez-vous ?

Dans le cas présent, le calcul est très simple : vous avez mis 1 et, à la fin de l’année, votre banquier vous versera 100% de 1 d’intérêts ce qui, en principe, devrait vous faire 2.

Seulement voilà : il est tout à fait possible que votre banquier vous propose de vous payer vos intérêts en plusieurs fois. Par exemple, un taux d’intérêt nominal de 100% sur un capital de 1 peut aussi donner lieu à un paiement de 0.5 au bout de 6 mois et des 0.5 à la fin de l’année.

Supposons donc que votre banquier vous propose un paiement semestriel et admettons [2] qu’il vous permette de réinvestir vos intérêts au même taux. À la fin de l’année, de combien disposerez-vous ?

C’est à peine plus compliqué : au bout de 6 mois, vous avez toujours votre capital initial (1) auquel vient se rajouter un premier paiement de 0.5 que vous réinvestissez à 100% pour les 6 mois restants. À la fin de l’année, vous récupérez donc ces 1.5, un second paiement de 0.5 et les 0.25 qui correspondent aux intérêts des 0.5 réinvestis en cours d’année. Vous voilà donc avec un capital de 2.25.

D’une façon générale, on peut facilement démontrer que pour tout capital initial $C_0$ et pour tout taux d’intérêt nominal $k$, la valeur acquise de votre capital placé selon cette règle [3] pendant $t$ années s'écrit :

$$C_t = C_0 \times \left(1+\frac{k}{f}\right)^{ft}$$

Où $f$ désigne le nombre de paiements d’intérêt par an : dans le cas de paiements semestriels $f = 2$, avec des paiements trimestriels ont aurait $f = 4$ etc.

Reprenons notre exemple initial ($C_0 = 1$, $k = 1$ et $t = 1$) et voyons ce que ça donne en augmentant la fréquence ($f$). Avec des paiements trimestriels ($f = 4$), vous devriez trouver environ 2.44141, avec des paiements mensuels ($f=12$) ça fait environ 2.61304, avec des intérêts tous les jours ($f=365$ sur une année bissextile) vous arrivez à quelque chose comme 2.71457 et, dans l'hypothèse parfaitement incongrue où vous pourriez réinvestir vos intérêts toutes les heures ($f=8760$ sur une année bissextile), vous récupéreriez 2.71813 à la fin de l'année.

Comme vous pouvez le constater, plus la fréquence augmente, plus la valeur acquise de votre capital est importante — ce qui est assez logique puisque ça signifie que vous pouvez réinvestir de plus en plus tôt — mais on sent bien que ça tend vers une limite.

C’est la question que se posait Jabob Bernouilli en 1683 : « si je place 1 thaler [4] à 100% pendant 1 an et que la fréquence de paiement des intérêts tend vers l’infini (imaginez, pour simplifier, qu’on vous paie des intérêts toutes les nanosecondes), combien ça fait ? »

La réponse c'est $e$, le « nombre d'Euler », la « constante de Néper », la base du logarithme naturel qui vaut environ 2.71828.

D’une façon générale, pour tout capital initial $C_0$ et pour tout taux d’intérêt nominal $k$, la valeur acquise de votre capital placé pendant $t$ années en supposant que vos intérêt sont payés et réinvestis au taux $k$ à une fréquence infinie s’écrit :

$$C_t = C_0 \times e^{kt}$$

Ce qui fait qu’avec un peu d’algèbre, vous pouvez aussi exprimer notre taux d’intérêt ($k$) en fonction du capital initial ($C_0$) et de sa valeur acquise après $t$ années ($C_t$) :

$$k = \frac{1}{t} \times \ln{\left( \frac{C_t}{C_0} \right)}$$

Ou, puisque c'est mathématiquement équivalent :

$$k = \frac{1}{t} \times \left( \ln{(C_t)} - \ln{(C_0)}\right)$$

On peut utiliser le même principe pour exprimer des taux de rendement. Habituellement, pour mesurer le taux de rendement entre $C_0$ et $C_t$, on utilise :

$$ d_{0, t} = \frac{C_t}{C_0} - 1$$

Ce qui revient à supposer que la différence entre $C_0$ et $C_t$ nous est payée en une seule fois à la date $t$ (c'est-à-dire qu'il n'y a pas matière à réinvestir quoi que ce soit). Mais on peut aussi, par simple convention de calcul, faire comme si ce rendement prenait la forme d'une infinité de paiements qui nous sont versés et que nous réinvestissons en continu au même taux. Auquel cas :

$$ \delta_{0, t} = \ln{\left( \frac{C_t}{C_0} \right)}$$

Et :

$$C_t = C_0 \times e^{\delta_{0, t}}$$

Mais après tout, pourquoi utiliser ces choses-là puisque nous avons déjà une convention de calcul des taux de rendement (celle de $d_{0,t}$) ? Eh bien figurez-vous qu’il existe une excellente raison à ça : les rendements continus se somment. C’est-à-dire que :

$$\delta_{0,T} = \delta_{0,1} + \delta_{1,T}$$

Or, cette propriété est extraordinairement utile pour tout un tas d'applications pratiques et peut, même, dans certain cas extrêmes, permettre à des journalistes du service public d'échapper au ridicule [5].

---
[1] Par convention et ce depuis la nuit des temps un taux d’intérêt est toujours exprimé en base annuelle : lisez 100% d’intérêt par an.
[2] Ce qui, dans la pratique, n’a que très peu de chance d’arriver. Ce n’est qu’une convention de calcul.
[3] On appelle ça des intérêts composés : ce n’est, comme je l’ai déjà dit ci-dessus, qu’une convention de calcul.
[4] C'est la monnaie qui circulait à Bâle (Suisse) à l'époque. On est presque sûr que c'est de là que vient le mot « dollar. »
[5] JT de France 2 le 19 février 2013. La vidéo est ici.

Modéliser des patrimoines avec une marche aléatoire

Challenge vient de publier son classement annuel des plus grosses fortunes françaises et, comme d’habitude, les résultats donnent lieu à un nombre effarant d’interprétations erronées. J’y reviendrai si je trouve le temps. En attendant, je vous propose de voir comment on peut modéliser l’évolution de patrimoines dans le temps avec une marche aléatoire.

Considérez $N$ patrimoines (avec $i \in \{1, 2, \ldots, N\}$) observés pendant $T$ années (avec $t \in \{1, 2, \ldots, T\}$). La variation annuelle du patrimoine $P_i$ de l'année $t-1$ à l'année $t$ s’écrit :

$$\delta_{i, t} = \log{\left(P_{i, t}/P_{i, t-1}\right)} = \log{(P_{i, t})} - \log{(P_{i, t-1}})$$

Et la variation totale du patrimoine $P_i$ au bout de $T$ années est simplement la somme de ses variations annuelles :

$$\delta_{i, T} = \sum_{t = 1}^T \delta_{i, t}$$

La valeur finale, au bout de $T$ années, du patrimoine $P_i$ s'écrit donc simplement :

$$ P_{i, T} = P_{i, 0} \times e^{\delta_{i, T}}$$

Supposons que les variations annuelles de nos patrimoines suivent une distribution stable — peu importe laquelle — de moyenne $\mu$ et d’écart-type $\sigma$. Au bout de $T$ années, on sait que la variation moyenne ($\mu_T$) des patrimoines sera de :

$$\mu_T = \mu \times T$$

Si on admet que ces variations ne sont pas autocorrélées [1], la formule de Bienaymé nous permet d’écrire que l’écart-type au bout de $T$ années ($\sigma_T$) sera de :

$$\sigma_T = \sigma \times \sqrt{T}$$

Par ailleurs, avec un nombre suffisant d’observations (d’années), le Théorème Central Limite nous apprend que la distribution des variations de nos $N$ patrimoines sur $T$ années suivra une loi normale — ou, du moins, quelque chose de proche — ce qui implique que la distribution des patrimoines eux-mêmes suivra une loi log-normale.

$$P_{i, T} \sim \mathcal{lnN}(\mu_T, \sigma_T^2)$$

Forts de ce qui précède, on peut estimer précisément tous les quantiles de la distribution des patrimoines finaux (au bout de $T$ années) et on peut surtout étudier comment la moyenne ($\mu$) et l’écart-type ($\sigma$) influent sur l’accroissement des inégalités.

Je laisse les amateurs vérifier par eux-mêmes mais le résultat est sans appel : plus la moyenne et l’écart-type sont élevés, plus les quantiles de patrimoine élevé (le seuil à partir duquel on appartient au top 1% par exemple) progressent plus vite que les autres (la médiane par exemple) — i.e. plus la distribution devient asymétrique à droite.

En d’autres termes, dans un monde (théorique) où les patrimoines évoluent de façon parfaitement aléatoire, un accroissement important des inégalités correspond à une situation dans laquelle (i) tout le monde, en moyenne, s’enrichi et/ou (ii) la variance des patrimoines est élevée. Au contraire, une situation dans laquelle les inégalités sont stables ou régressent correspond à un monde de patrimoines stationnaires (voire en régression) avec une faible variance.

Ça ne signifie naturellement pas que l’évolution des patrimoines est vraiment aléatoire mais ça signifie très concrètement que ce phénomène d’enrichissement plus rapide du top x% est, au moins en partie, une conséquence logique et mathématique d’un monde dans lequel le plus grand nombre s’enrichi et dans lequel les fortunes sont volatiles.

Un garçon qui n’a jamais eu de métier

Jean-Luc Mélenchon fait ses premières armes en politique à Lons-le-Saunier, en mai 1968. À cette époque il n’est que lycéen — en première littéraire — mais c’est lui, racontent ses anciens camarades de classe, qui va importer les évènements parisiens dans son Jura d’adoption. C’est lors de cette première expérience politique qu’il va réaliser son indiscutable talent d’orateur et se familiariser avec la pensée d’extrême gauche et notamment Karl Marx qui devient son livre de chevet en terminale. Il passe son bac en 1969 et s’inscrit à la faculté des lettres de l’université de Besançon pour y étudier la philosophie.

Sitôt inscrit, le jeune Mélenchon se rapproche de l’UNEF et déserte les amphis pour se consacrer au militantisme. Il parviendra quand même à obtenir sa licence en 1972 mais ne poussera pas ses études plus loin : la même année, il rentre formellement en politique en rejoignant l’Organisation Communiste Internationaliste (OCI), une organisation trotskyste de tendance lambertiste qui est alors à son apogée. Désormais connu sous le pseudonyme de « Santerre » et encore officiellement étudiant, Jean-Luc Mélenchon se consacre à plein temps à ses activités politiques.

C’est en 1974, avec la naissance de sa fille alors qu’il n’a que 22 ans, que la réalité va le rattraper. Il a désormais charge de famille et le job de surveillante de son épouse ne suffit plus : il va désormais devoir gagner sa vie. Au premier trimestre, il est correcteur pour l’imprimerie Néo-Typo puis, dans la foulée, travaille quelques mois dans l’usine de l’horloger Maty. C’est-à-dire que, sans qu’on ait de dates plus précises, l’intégralité de l’expérience ouvrière de Jean-Luc Mélenchon tient dans une année. Il revendiquera plus tard avoir également travaillé dans une station-service « à la sortie de la ville » sans qu’on en sache plus à ce propos.

Toujours est-il qu’à partir du premier trimestre 1975, Jean-Luc Mélenchon décroche un poste de pion au lycée technique de Mouchard. Il est embauché en tant que surveillant mais c’est à cette occasion — sans doute grâce à son diplôme de philosophie — qu’il sera amené à donner quelques cours de français à une classe de 23 élèves en qualité de professeur auxiliaire. Voilà pour le passé de professeur de français de M. Mélenchon : ça n’a duré que le temps d’un remplacement d’un an — l’année scolaire 1975-76 — et ça n’a concerné qu’une seule classe.

C’est durant l’été 1976 qu’il déménage pour Montaigu, un petit village à côté de Lons-le-Saunier. Fraîchement radié de l’OCI, Jean-Luc Mélenchon décide de rejoindre les « sociaux-traitres » et s’encarte au Parti Socialiste où il reprend ses activités de militantisme politique. Las, son contrat de surveillant n’étant pas renouvelé, il doit à nouveau chercher du travail. En octobre 1976, il se fait embaucher comme pigiste aux Dépêches du Jura ou il officiera sous le pseudonyme de « Jean-Louis Mula » (JLM).

La liste de l’Union des gauches remporte les municipales de Lons-le-Saunier en mars 1977 mais le PCF y est majoritaire. Afin de préparer les législatives de 1978 et de contrer l’influence communiste, Jean-Luc Mélenchon convainc la toute petite fédération PS du Jura de lancer son propre journal — La Tribune du Jura — dont il devient directeur, journaliste (« Jean-Louis Mula ») et même dessinateur (« Moz »). Le premier numéro sort en novembre 1977, le sixième et dernier parait en avril 1978 : il a donc dirigé une feuille de chou politique pendant 5 mois.

Mais le mois suivant, en mai 1978, on retrouve Moz dans un canard local lequel se trouve être — de façon assez amusante — un hebdomadaire catholique (La Croix jurassienne). Jean-Luc Mélenchon y publiera quelques strips en trois cases, les actualités indiennes, avant de briguer un poste vacant à la rédaction. Las, sa candidature ne sera finalement pas retenue pour des motifs de divergence idéologique et notre futur tribun se retrouve encore une fois sans ressource.

C’est à ce moment, fin 1978, qu’il se fait embaucher par Claude Germon, le maire de Massy, qui en fait son directeur de cabinet et le lance en politique. Se remémorant cette époque, ledit Germon qui aura, il est vrai, quelques raisons de regretter son choix, a une réflexion quelque peu lapidaire : « très vite je me suis rendu compte que c’est un garçon qui n’a jamais eu de métier. » Quoiqu’il en soit, la carrière politique de Jean-Luc Mélenchon, elle, est désormais bien lancée.

C’est-à-dire que le grand défenseur des travailleurs qui n’a de cesse de donner des leçons à tout le monde n’a lui-même travaillé, hors politique, que quatre petites années — et encore, en prenant large. Il n’a été ouvrier qu’un an tout au plus, ses galons de professeur de français — voire de professeur de littérature — sont très largement usurpés et son glorieux passé de journaliste se résume à quelques piges ou mauvais dessins dans des publications parfaitement confidentielles. Jean-Luc Mélenchon est un pur politicien qui n’a pour ainsi dire jamais rien fait d’autre ; c’est un beau parleur qui, pour reprendre les termes de Claude Germon, ne sait rien faire d’autre.

---
Mes principales sources sont [1] une interview de JLM dans Gala (1er septembre 2015), [2] une autre dans Paris Match (23 juillet 2011), [3] l'interview de Claude Germon sur France Culture, à partir de 23:25 (21 janvier 2012), [4] un article de Pierre Pauma sur Rue89 (12 octobre 2014) et Last but not least, [5] Mélenchon le plébéien de Lilian Alemagna et Stéphane Allies.

Nombre d'heures travaillées par an et pour 100 personnes

Selon les données de l’OCDE pour 2015, le taux d’emploi de la population française âgée de 15 à 64 ans était de 63.8%. C’est-à-dire que sur 100 personnes en âge de travailler, un peu moins de 64 ont effectivement occupé un emploi — fût-ce à temps partiel — durant l’année considérée. Par ailleurs, selon la même source, le temps de travail annuel moyen des français qui ont travaillé en 2015 s’établissait à 1 482 heures [1].

En croisant ces deux données, on peut facilement estimer le nombre d’heures de travail fournies en une année par 100 français en âge de travailler : ça fait environ 94 552 heures. Juste pour remettre ce chiffre dans son contexte, voici ce que ça donne pour tous les pays pour lesquels les données sont disponibles dans les bases de l’OCDE :

Juste pour votre information, pas moins de 84.7% des islandais âgés de 15 à 64 ans travaillent (c’est le record du panel) et ils travaillent en moyenne 1 880 heures par an. Ce sont les mexicains et les coréens (du sud) qui, lorsqu’ils travaillent, fournissent le plus grand nombre d’heures avec 2 246 et 2 113 heures par an respectivement. Ils sont suivis par les grecs (2 042) mais ces derniers ne sont que 50.8% à occuper un emploi (du moins, officiellement) ce qui les place bons derniers en termes de population employée. Enfin, c’est en Allemagne que le nombre d’heures travaillées par ceux qui ont un emploi est le plus faible avec 1 371 heures par an.

---
[1] En travaillant 35 heures par semaine sur 47 semaines par an (52 semaines moins 5 semaines de congés payés), vous arrivez à 1 645 heures. Le différentiel est essentiellement dû aux temps partiels.

Calculer la date de Pâques pour n’importe quelle année

Établie au concile de Nicée en 325, la date officielle du dimanche de Pâques sert de référence pour fixer les dates de plusieurs jours fériés. En France, il y a le lundi de Pâques (i.e. le lendemain), le jeudi de l’Ascension (39 jours après) et le lundi de Pentecôte (50 jours après) ; aux États-Unis, le Good Friday tombe le vendredi qui précède le dimanche de Pâques (soit deux jours avant). Problème : calculer la date de Pâques est affreusement compliqué.

Fort heureusement, quelques brillants esprits s'y sont collés avant nous et nous ont livré des algorithmes capables de déterminer cette date précisément, sans avoir recours aux redoutables méthodes canoniques que je vous laisse découvrir par vos propres moyens. Je vous propose ci-dessous la méthode dite de Butcher [1] codée sous R : elle permet, pour n’importe quelle année, de trouver la date du dimanche de Pâques dans le calendrier Grégorien.

EasterSunday = function(year) {
 a <- year%%19
 b <- floor(year/100)
 c <- year%%100
 d <- (19*a+b-floor(b/4)-floor((b-floor((b+8)/25)+1)/3)+15)%%30
 e <- (32+2*(b%%4)+2*floor(c/4)-d-c%%4)%%7
 f <- floor((a+11*d+22*e)/451)
 month <- floor((d+e-7*f+114)/31)
 day <- (d+e-7*f+114)%%31+1
 Date(year, month, day)
}

Notez que la fonction Date utilisée ci-dessus est aussi de moi. Voici le code :

Date = function(year, month, day) {
 m <- formatC(month, width = 2, flag = "0")
 d <- formatC(day, width = 2, flag = "0")
 as.Date(paste(year, m, d, sep = "-"))
}

Vous pouvez ainsi vérifier que :

> EasterSunday(2017)
[1] "2017-04-16"
>

Elle fonctionne aussi avec des vecteurs :

> EasterSunday(1515:1518)
[1] "1515-04-11" "1516-04-02" "1517-04-22" "1518-04-07"
> 

For English-speaking readers: this is an R function to compute the date of Easter Sunday in the Gregorian calendar for any given year using Butcher’s algorithm.

---
[1] Cet algorithme a été publié en 1876 par un auteur inconnu dans Nature ; C'est donc Samuel Butcher, évêque de Meath qui a démontré qu’elle est exacte en 1877, qui lui donne son nom.

Pourquoi les taxes favorisent rarement les investissements

Supposez que vous soyez sur le point de créer votre entreprise. Après une étude approfondie du sujet, vous en arrivez à la conclusion que vous allez devoir investir 100 de votre poche, que cette entreprise devrait, si tout se passe comme prévu, vous permettre de vous payer un dividende de 5 tous les ans pendant les 10 prochaines années et vous estimez que vous pourrez la revendre 110 dans 10 ans. Question : vous investissez ou pas ?

Un des critères les plus largement utilisés par celles et ceux qui s’interrogent sur l’opportunité d’investir dans une entreprise (ou n’importe quoi d’autre) est celui de la Valeur Actuelle Nette (VAN). La VAN ($V_0$) d’un projet d’investissement peut s’écrire comme suit :

$$V_0 = \sum_{t=0}^T F_t.(1+k)^{-t}$$

Où $T$ représente la durée totale, exprimée en années, de cet investissement (laquelle peut être « infinie » ou plutôt indéterminée), les $F_t$ représentent tous les flux de trésorerie liés à cet investissement (négatifs lorsqu’ils sortent de la poche de l’investisseur et positifs lorsque ce sont des profits) et $k$ représente le taux de rendement [1] minimum attendu par l’investisseur. La règle d’utilisation est très simple : si la VAN ($V_0$) est positive, vous investissez ; si elle est négative, vous vous abstenez.

Dans le cas présent nous avons un seul $F_t$ négatifs de 100 à la création de l'entreprise (l'année 0) qui sera suivit de 10 dividendes annuels de 5 auxquels viendront se rajouter, la 10ème et dernière année ($T$), les 110 du prix de revente de votre entreprise. Reste à déterminer le taux de rendement minimum à partir duquel vous acceptez de prendre le risque de vous lancer dans ce projet ($k$, le taux d'actualisation). Par hypothèse, nous allons supposer que le taux des obligations d'État à 10 ans est actuellement d'un peu moins de 5% et que vous n'êtes pas trop gourmand : vous vous satisferez d'un taux de 5%.

Notez ici que vous seriez bien mal avisé d'utiliser un taux inférieur à celui des obligations d'État. La raison en est fort simple : si vous investissez vos 100 dans une telle obligation, vous gagnerez du 5% annuel sans prendre le moindre risque et sans travailler. Dans le cadre de la création d’une entreprise, vous utiliserez donc nécessairement un taux plus élevé (et je doute que vous vous contenteriez de 5% mais admettons).

Si vous faites le calcul, vous devriez tomber sur une VAN de l'ordre de 6.14 : vous avez donc tout intérêt à créer cette entreprise.

Supposons que le gouvernement décide de prélever une taxe de 10% sur les dividendes de telle sorte que vous ne pourrez plus vous payer que 4.5 par an. Modifiez ce paramètre dans la formule et vous devriez constater que la VAN de votre investissement n’est plus que de 2.28 : ça reste un projet viable mais il est nettement moins attractif qu’avant la taxe.

Supposons maintenant que le gouvernement décide de taxer aussi votre plus-value à la revente à hauteur de 40% (vous ne touchez plus 110 la 10ème année mais 106). Recalculez et vous trouvez une VAN négative (-0.18) ce qui signifie, très concrètement, que votre projet n’est plus économiquement viable [2]. Vous n’avez matériellement aucun intérêt à créer cette entreprise.

Dernier exercice : supposons que cette dernière taxe (40% de votre plus-value) ne soit pas encore en vigueur mais que Jean-Luc Mélenchon — qui a une chance du deux d’être élu — menace de taxer 80% de votre plus-value. En d’autres termes, vous avez une chance sur deux de récupérer vos 110 et une chance sur deux de ne toucher que 102 — ce qui fait (aussi) un prix de revente net d’impôts de 106 en moyenne. Là encore, la VaN est négative : vous n’investissez pas.

De ces trois petits exercices, vous devriez sans peine déduire deux choses très importantes. Primo, le niveau actuel des impôts sur les dividendes ou les plus-values ne fait pas que pénaliser ceux qui touchent des dividendes ou sont susceptibles de faire des plus-values aujourd’hui, il a un effet direct et presque mécanique sur les investissements : plus ces impôts sont élevés, moins nombreux sont les projets économiquement viables. Deuxio, dans un environnement fiscal instable, même les taxes qui n’existent pas encore sont susceptibles d’avoir le même effet : les investisseurs intègrent cette possibilité dans leurs calculs (de façon beaucoup moins naïve et brutale que ce que nous venons de faire, évidemment).

Vous pouvez maintenant reprendre une activité normale tout en gardant à l’esprit, la prochaine fois qu’on vous proposera de taxer les dividendes ou les plus-values pour favoriser les investissements et la croissance, qu’il y a assez peu de chances pour que ça fonctionne.

---
[1] Techniquement, c'est un taux d'intérêt et pas un taux de rendement mais peu importe.
[2] Vous utiliseriez mieux votre argent, sans risque et sans effort, en le prêtant à l'État.

La fonction publique : premier exploiteur capitaliste de France

Je suppose que le lecteur, ayant probablement fait ses études en France, est parfaitement au fait du principe de l’exploitation capitaliste. Si ce n’est pas le cas, voici un bref résumé : puisque la valeur d’une marchandise ou d’un service découle de la quantité de travail nécessaire à le produire [1], il va de soi que ce sont les travailleurs et eux seuls qui créent de la richesse. Dès lors, puisque les capitalistes réalisent des profits, il est évident qu’ils spolient les travailleurs d’une part de la richesse qui leur revient de droit. C’est le fondement même de l’idée selon laquelle les patrons exploitent leurs salariés.

En suivant Marx et ses nombreux disciples on peut donc établir une règle simple : tout salarié d’une entreprise privé est nécessairement exploité tandis que ceux de la fonction publique — qui, par définition, n’a pas vocation à réaliser de profits [2] — ne le sont pas. Si nos compatriotes et en particuliers ceux qui se disent anticapitalistes avaient une vision un tant soit peu logique des choses, tous des salariés du privé devraient se considérer comme exploités et, symétriquement, aucun salarié de la fonction publique ne devrait se plaindre de l’être.

Je suis tombé, par le plus grand des hasards, sur une enquête réalisée par la Dares auprès des salariés de France métropolitaine en 2013. Elle est très instructive dans son ensemble mais c’est sur un des résultats en particulier que je souhaite ici attirer votre attention. Ça se trouve page 89, dans le tableau 12.9 : on a demandé aux salariés du secteur privé (i.e. « Marchand ou associatif ») et à ceux des trois fonctions publiques (i.e. de l’État, territoriale et hospitalière [3]) s’ils avaient, toujours, souvent, parfois ou jamais, le sentiment d’être exploités. Voici les résultats :

Voilà des résultats intéressants. Si pas moins de 43.3% des salariés du privé n’ont jamais le sentiment d’être exploités — ce qu’un bon marxiste mettra sans doute sur le compte de l’abrutissement des masses laborieuses ou de la trahison de classe — il est tout de même assez extraordinaire de constater que jusqu’à 53.6% des employés de la fonction publique estiment être victimes, au moins de temps en temps, de l’exploitation capitaliste à laquelle ils échappent pourtant par définition. J’ai beau essayer d’interpréter ce résultat à l’aune des canons de l’extrême gauche, j’avoue ne pas parvenir à la moindre explication satisfaisante.

Je laisserai donc les exégètes insoumis nous expliquer comment un tel miracle est possible et me contenterai de noter que, si l’on se base sur les réponses des salariés concernés, la fonction publique prise dans son ensemble est, de loin [4], le premier exploiteur du prolétariat. À moins, bien sûr, que ces braves gens disent n’importe quoi.

---
[1] Marx n’a rien inventé : il emprunte cette conception de la valeur-travail à Adam Smith (Recherches sur la nature et les causes de la richesse des nations, 1776) sans savoir que, la même année, Étienne Bonnot de Condillac (Le Commerce et le gouvernement considérés relativement l’un à l’autre, 1776) avait compris et expliqué en quoi elle est erronée.
[2] Et, de fait, n’en réalise pas puisqu’elle accumule des pertes abyssales depuis des décennies.
[3] Afin de comparer plus aisément le sentiment de la fonction publique dans son ensemble à celui du privé, j’ai regroupé les trois branches en pondérant par les effectifs annoncés par le Ministère de la fonction publique.
[4] Mine de rien, en comptant ceux qui s’estiment toujours, souvent ou parfois exploités, ça fait plus de 29 millions de salariés exploités !

Pourquoi il n’y a pas de sphère de Dyson autour de KIC 8462852

KIC 8462852, aussi connue sous le nom d’étoile de Boyajian, fait encore des siennes. Les étranges fluctuations lumineuses de cet astre de la constellation du Cygne n’en finissent plus de plonger les astronomes dans des abimes de perplexité. Personne, à ce jour, n’a été capable de les expliquer à tel point que, faute d’explication naturelle, nombreux sont ceux qui se demande si nous n’aurions pas découvert une sphère de Dyson.

Une sphère de Dyson, si tant est qu’une telle chose existe, c’est une gigantesque structure construite par une civilisation très avancée autour d’une étoile pour en capter l’énergie. L’hypothèse, formulée par le physicien et mathématicien Freeman Dyson en 1960, repose sur la même intuition que l’échelle de Kardachev : une civilisation très avancée [1] consomme nécessairement des quantités gigantesques d’énergie et, pourvu qu’on en soit matériellement capable, exploiter celle qui est émise par une étoile semble être une bonne idée.

De fait, si vous considérez les derniers siècles de notre histoire — depuis la révolution industrielle — notre consommation d’énergie a effectivement augmenté de façon spectaculaire : non seulement la population Homo sapiens a explosé mais la consommation d’énergie par Homo sapiens a également progressé aussi régulièrement que significativement. Rien qu’entre 1965 et 2015 [2], la population humaine a progressé de 1.6% par an et notre consommation énergétique moyenne a augmenté de 0.94% par an : soit une hausse annuelle de notre consommation globale de l’ordre de 2.55% sur les quarante dernières années.

Au premier abord, on est donc tenté de suivre Kardachev et Dyson dans la mesure où la tendance qu’ils identifiaient dans les années 1960 semble bien se poursuivre : notre développement technologique implique une consommation toujours plus importante d’énergie. Alors que nous ne sommes désormais plus très loin de mériter d’être considérés comme une civilisation de type I — capable d’utiliser toute la puissance disponible sur Terre [3] — nous serions condamnés à poursuivre cette fuite en avant sauf, bien sûr, si nous mettons un terme à notre développement.

Mais toute la question est de savoir si les tendances que nous avons observé jusqu’ici vont nécessairement ce poursuivre. Après tout, nous parlons d’une période de deux ou trois siècles ; période infime à l’échelle de notre histoire que nos descendants, dans quelques siècles, considèreront vraisemblablement avec une certaine condescendance comme une sorte d’âge de pierre. En d’autres termes, l’idée selon laquelle une civilisation avancée consomme nécessairement énormément d’énergie n’est-elle pas plus le fruit de notre expérience récente qu’une véritable règle intangible du développement civilisationnel ?

En fouillant un peu dans les données disponibles, j'ai comparé la consommation d'énergie par individu dans le monde entier (en noir), celle des pays développés (ici l'OCDE, en bleue) et celle des pays relativement moins développés (i.e. hors OCDE, en rouge). Voici à quoi ça ressemble :

Évidemment, ceux d’entre nous qui vivent dans des pays de l’OCDE consomment en moyenne près de quatre fois plus d’énergie que les autres mais considérez la tendance depuis — en gros — les années 2000 : après un plateau, à l’échelle mondiale, de près de 20 ans durant lesquels notre consommation individuelle n’a pratiquement pas évolué, toute la hausse observée depuis le début des années 2000 est intégralement imputable aux pays hors OCDE. Dans l’OCDE, c’est-à-dire dans les pays les plus technologiquement développés de la planète, la tendance des dix dernières années est exactement inverse : la consommation d’énergie moyenne par Homo sapiens décline depuis 2005.

Mieux encore : la plupart de ses pays ayant largement entamé leur transition démographique [4], nous avons là une décennie entière durant laquelle la consommation d’énergie globale des pays de l’OCDE a baissé. De 2005 à 2015, la consommation énergétique globale augmente de 1.85% en rythme annuel (contre 2.73% de 1965 à 2005) mais dans les pays de l’OCDE, elle régresse de 0.30% par an (contre une croissance annuelle de 1.93% de 1965 à 2005).

Bien sûr, ces données peuvent ne rien signifier du tout. Mais si vous considérez l’histoire récente, il est évident que nous avons réalisé de considérables progrès en matière d’économie d’énergie. Nos voitures modernes, nos habitations et nos appareils électroménagers — pour ne prendre que quelques exemples — consomment infiniment moins que ceux de nos parents. Nous sommes désormais près, parce que c’est économiquement rationnel et parce qu’elles sont disponibles, à investir dans des technologies économes.

Je peux bien sûr me tromper mais si je devais faire un pari de long terme aujourd’hui, je miserais volontiers sur une stabilisation puis un déclin de notre consommation d’énergie. Deux forces sont à l’œuvre.

D’une part, les pays que nous considérons aujourd’hui comme en voie de développement vont, eux aussi, connaitre leur transition démographique. Les projections de population à long terme que nous voyons souvent circuler sont de simples extrapolations de tendances passées qui ne tiennent pas compte de ce phénomène pourtant largement documenté. Il n’est même pas impossible que la population humaine finisse, à termes, par régresser d’elle-même. Dans la plupart des pays développés, nous sommes déjà en deçà du seuil de renouvellement d’une population (2.05 enfants par femme) et tout porte à croire que le reste de l’humanité suivra tôt ou tard le même chemin.

D’autre part, il est économiquement plus rentable et rationnel d’économiser nos ressources énergétiques que de chercher à en développer de nouvelles. Pour reprendre l’image (extrême) d’une sphère de Dyson, il faut imaginer les prouesses technologiques et scientifiques qu’une telle entreprise implique : n’est-il pas infiniment plus simple, moins coûteux et moins risqué de développer des véhicules, des habitations et des appareils électroménagers moins gourmands. Très intuitivement, la réponse me semble sans appel : oui, bien sûr.

Et ce, d’autant plus que les gisements d’économies sont absolument immenses. On pense bien sûr à de meilleures isolations de nos maisons ou à des ailes qui optimisent la consommation des avions mais ce ne sont là que des gouttes d’eau. Considérez, par exemple, les économies qu’implique le simple fait d’envoyer un e-mail plutôt qu’une lettre de papier. Comparez la consommation énergétique de votre smartphone avec celle des multiples appareils — téléphone, appareil photo, PDA, walkman, dictaphone, carte papier… — qu'il a remplacé. Combien nous pourrions économiser encore en mutualisant la préparation de nos repas [5] ou le nettoyage de notre linge ?

Je ne sais pas quelle surprise nous réserve KIC 8462852 mais je suis prêt à parier que ce n’est pas une sphère de Dyson : si une civilisation très avancée nous observe de quelque part dans l’univers, nous lui donnons probablement l’impression d’un extraordinaire gaspillage énergétique. La première loi de l’économie c’est la rareté et il n’existe aucune raison de penser qu’elle soit différente ailleurs dans l’univers. Notre futur ne réside sans doute pas dans le choix de telle ou telle énergie mais plutôt dans la myriade de stratégies que nous mettrons en œuvre pour les économiser toutes.

---
[1] Au sens de Kardachev le degré d’avancement d’une civilisation se mesure à l’aune de la quantité d’énergie qu’elle consomme — en l’occurrence, les constructeurs d’une sphère de Dyson seraient une civilisation de type II.
[2] Les données utilisées dans cet article sont celles de la Statistical Review of World Energy 2016 de BP. Elles couvrent notre consommation de pétrole, de gaz naturel, de charbon, d’énergie nucléaire et d’énergies dites renouvelables (hydroélectricité, solaire, éolien…) estimées en millions de tonnes d’équivalent pétrole.
[3] Dans deux siècles ou un petit millénaire selon les estimations.
[4] À tel point que les dirigeants de certains de ces pays — notamment la France — se sentent obligés de mettre en œuvre des politiques natalistes, notamment pour assurer la viabilité de certains systèmes sociaux.
[5] Comparez le bilan énergétique d'une pizza commandée chez le pizzaïolo du coin et celle que vous préparez vous-même.

Le prix des sardines quand les pêcheurs ont des téléphones

Soit deux petits villages de pêcheurs de sardines du sud de l’Inde. Chaque nuit, les pêcheurs de chaque bourg partent jeter leurs filets en mer et, le matin venu, ils vendent leurs prises sur la plage à la population de leurs villages respectifs. Parce qu’ils sont relativement distants l’un de l’autre et ne disposent pas de moyens de communication rapide, nos villages vivent en autarcie. C’est-à-dire que leurs habitants n’achètent de sardines qu’aux pêcheurs de leur propre village qui, symétriquement, n’en vendent à personne d’autre qu’à leurs concitoyens.

Dans l’état actuel des choses, donc, la ration quotidienne de protéines des habitants de nos villages dépend exclusivement de leurs pêcheurs respectifs. Si la pêche est fructueuse, il est probable que les sardines seront bradées au marché du matin et il n’est pas impossible que les pêcheurs se retrouvent même avec des invendus — c’est-à-dire des poissons bons à jeter. Si, au contraire, la pêche de la nuit a été mauvaise, vous pouvez vous attendre à une pénurie et à ce qu’on s’arrache les sardines à prix d’or.

Par ailleurs, puisque nos deux villages ne commercent pas entre eux, il est très probable que les prix de sardines évoluent de façon indépendante d’un village à l’autre. C’est-à-dire qu’un de nos deux villages peut connaître une situation de pénurie (et des prix très élevés) alors que l’autre croule sous les sardines (et les prix y sont donc très bas). La pénurie comme l’abondance peuvent bien sûr arriver en même temps dans les deux villages mais il est peu probable que ce soit systématique.

Maintenant, équipons nos pêcheurs et leurs clients de téléphones mobiles et voyons ce que ça change.

Désormais, si l’un de nos deux villages se trouve en situation de pénurie, les acheteurs peuvent contacter les habitants de l’autre village pour trouver des sardines meilleur marché. Symétriquement, si la pêche a été bonne dans un village, les pêcheurs peuvent désormais écouler leur surplus de production et préserver leurs revenus. Incidemment, il existe maintenant un nouveau métier qui consiste à acheter des sardines dans un village pour les revendre dans l’autre.

Nous devrions donc observer deux phénomènes. Primo, les prix devraient être beaucoup moins volatiles : les bonnes pêches d’un village compensant les mauvaises de l’autre, l’approvisionnement est plus régulier et donc, les écarts de prix d’un jour à l’autre sont moins importants. Deuxio, les écarts de prix d’un village à l’autre sont aussi moins importants [1] : en vendant vos sardines dans l’autre village parce que les prix y sont plus élevés, vous augmentez l’offre là-bas tandis que vous la réduisez chez vous ; les prix devraient donc converger aux coûts de transport près.

En 2007, Robert Jensen, un professeur de Wharton (Université de Pennsylvanie), a publié un papier tout à fait extraordinaire [2] qui nous permet de vérifier ces prédictions de la théorie économique en conditions réelles. En l’occurrence, il ne s’agit pas de deux villages mais de 15 villages de l’état Kerala, état de l’extrême sud-ouest de l’Inde, qui ont été répartis en 3 régions en fonction de la date de mise en service du réseau de téléphonie mobile : la région 1, au sud, qui est couverte à partir de janvier 1997, la région 2, au centre, dont le réseau cellulaire commence à fonctionner entre en juillet 1998 et la région 3, tout au nord, qui n’est équipée qu’à partir de mai 2000.

Dans chacune de ces 3 régions, les chercheurs ont identifié 5 marchés aux poissons distants d’une quinzaine de kilomètres les uns des autres — soit 15 marchés au total — et, tous les mardis du 3 septembre 1996 au 29 mai 2001 (soit pendant 248 semaines), ont relevé les prix auxquels se vendaient les sardines sur chaque marché. Voici, pour chaque marché dans chacune des trois régions, les prix constatés en roupies par kilo :

Les traits verticaux rouges correspondent à la date de mise en service du réseau mobile dans chaque région : vers la semaine 22 pour la région 1, vers la semaine 98 pour la région 2 et vers la semaine 196 pour la région 3. Dans chaque cas, presqu’immédiatement après la connexion au réseau, la volatilité du prix des sardines et les écarts d’un marché régional à l’autre s’effondrent. C'est exactement ce que prédit la théorie : moins de pénuries, moins de gâchis et des prix beaucoup plus stables.

Dans le même ordre d'idées, je vous invite à découvrir, si vous ne l'avez pas déjà fait, le paradoxe des oignons.

---
[1] La Loi du prix unique (Law of One Price, LOP) stipule qu’en l’absence de restriction des échanges et si l’information circule, le prix d’un même produit doit être identique sur tous les marchés aux coûts de transaction près.
[2] Robert Jensen, The Digital Provide: Information (Technology), Market Performance, and Welfare in the South Indian Fisheries Sector (2007). Cliquez ici pour la présentation des résultats.

Un grand merci à Arthur Charpentier pour le lien !

Pro Macron - lettre ouverte à mes amis libéraux

Pardon pour cette platitude mais le succès d’Emmanuel Macron c’est avant tout l’expression d’un désir de renouvellement de notre classe politique. Je ne crois pas, si vous me permettez cette hypothèse personnelle, que la plupart de ses électeurs aient voté pour son programme et je suis même convaincu que très peu l’ont lu. Emmanuel Macron est avant tout l’incarnation de ce que nombre de nos concitoyens attendent : une nouvelle tête — un candidat dont les débuts en politiques n’ont pas été photographiés en noir et blanc [1] — et, à tort ou à raison, une rupture avec le système politique hérité de la Libération.

Et c’est précisément ça qui a, je crois, tué la candidature de François Fillon. Face à Nicolas Sarkozy et Alain Juppé, lors de la primaire, il pouvait aisément passer pour le candidat du renouvellement de la droite et ce, d’autant plus qu’il tenait à l’époque un discours très libéral au regard de ce à quoi nous sommes habitués de la part des Républicains [2]. Seulement voilà : non seulement son discours s’est nettement normalisé dès sa désignation mais le flux incessant d’affaires le concernant [3] n’a que trop rappelé aux électeurs ce « système » dont, justement, ils ne veulent plus.

Alors oui, sans doute y a-t-il dans la candidature d’Emmanuel Macron une dimension opportuniste : il a senti l’air du temps, il a tenté sa chance et ça a marché. Vous pouvez le lui reprocher mais n’oubliez pas, toutefois, que c’est exactement ce qu’a fait François Fillon aux primaires de la droite, que Jean-Luc Mélenchon a suivi exactement le même plan d’action [4] et que Marine le Pen, en bonne héritière du business paternel, n’a pas eu à se donner cette peine. C’est ainsi : la politique est une affaire de marketing et il faut être d’une naïveté confondante pour y voir l’expression des convictions sincères des candidats.

La fin d’une ère ?

S’il ne faut pas, dit l’adage, vendre la peau de l’ours avant de l’avoir tué, on est tout de même tenté de parier sur une fin prochaine des grands appareils politiques du XXème siècle — la SFIO et le RPF. Si ce dernier pourrait encore se relever de la défaite de François Fillon au prix d’un aggiornamento spectaculaire — en clair : en renouvelant ses têtes de files et en cessant, une bonne fois pour toutes, de faire le grand écart entre son centre gaulliste et ses ailes conservatrices et nationalistes — le futur du Parti dit Socialiste semble bien sombre.

Beaucoup de commentateurs — souvent à droite — ont vu dans l’émergence d’En marche une stratégie géniale orchestrée par les éléphants du PS ou par François Hollande lui-même. L’idée, en substance, est que l’aile centriste du PS aurait délibérément abandonné le parti aux « frondeurs » pour mieux renaître, blancs comme neige, dans la formation d’Emmanuel Macron tandis que Benoît Hamon se partagerait le vote de la gauche de la gauche avec Mélenchon et quelques autres comiques troupiers. Je suis pour le moins dubitatif. De fait, personne n’a abandonné quoi que ce soit : Benoît Hamon a simplement remporté la primaire de gauche face à Manuel Valls.

Devinant probablement ce qu’il adviendrait de la candidature de Benoît Hamon, Emmanuel Macron s’est engouffré dans la brèche ; récupérant ainsi les suffrages de l’aile modéré du PS, d’une bonne partie du centre et même du centre-droit. On peut bien sûr imaginer que les éléphants et même François Hollande l’aient encouragé en ce sens mais de là à présenter Macron comme un simple pion il y a un gouffre. À titre personnel, je pense que le fondateur d’En marche a réussi une OPA magistrale sur tout le centre gauche et que c’est une grave erreur de le sous-estimer.

Or, si j’ai raison, c’est une excellente nouvelle. Ça signifie que le paysage est désormais entièrement recomposé : les scories de la vielle aile gauche marxisante — principalement Mélenchon et ce qui reste du PS — font désormais leurs vies seules dans leur coin et qu’une gauche moderne et potentiellement libérale est en train de voir le jour en France. Enfin ! Avec un peu de chance et encore une fois si je ne me trompe pas En marche pourrait devenir notre New Labour et Macron, un véritable Tony Blair à la française. En soi c’est un motif de réjouissances.

La stratégie de l’immobilisme

J’ai entendu plusieurs fois, depuis hier soir, des déçus du clan Fillon déclarer qu’ils voteraient le Pen au second tour. Leur stratégie, en substance, semble se fonder sur l’idée selon laquelle l’héritière de Saint Cloud n’aura aucune majorité parlementaire sur laquelle s’appuyer ce qui, selon eux, la forcera à l’immobilisme pendant 5 ans. C’est, à mon sens, de la folie pure et simple.

Qu’Emmanuel Macron ne soit pas un grand libéral, j’en conviens volontiers. Reste qu’il l’est nettement plus que le Parti Socialiste et même que les Républicains. J’entends bien vos commentaires sur le programme de Fillon que vous jugez meilleur mais, d’une part, j’ai quelques doutes sur la conversion tardive de votre candidat favori [5] et, par ailleurs, il est désormais éliminé. Le choix qui s’offre à nous, aujourd’hui, c’est un candidat de centre-gauche somme toute tout à fait raisonnable et une Marine le Pen qui non seulement pourrait bien trouver suffisamment de soutiens pour mettre une partie de son programme délirant à exécution mais dont la seule élection suffirait à mettre le pays à feu et à sang.

Ne jouez pas, je vous en conjure, avec le feu et ce d’autant plus que les scores de Marine le Pen et de Jean-Luc Mélenchon ne sont pas, contrairement à ce que j’ai lu, le produit de la seule présidence de François Hollande mais celui de quatre décennies d’immobilisme, de reproduction endogame de l’élite politique et de compromis clientélistes. De gauche, comme de droite. Une cohabitation — à supposer qu’elle ait lieu — avec Marine le Pen à la présidence, c’est la dernière chose dont nous ayons besoin : des deux candidats en lice, le seul à être capable de rassembler au-delà de son parti et de faire, comme on dit, bouger les lignes, c’est Macron.

Je vais donc voter pour Emmanuel Macron sans la moindre hésitation. Je vais le faire non pas parce que je crois en lui [6] mais parce que dans l’alternative qui nous est offerte, c’est — et de très loin — la meilleure option. Une chance, fût-elle infime, c’est toujours mieux qu’aucun espoir. Partant, ma ligne de conduite sera celle de Frédéric Bastiat en son temps : peu importe qu’une politique soit labellisée de gauche ou de droite ; je soutiendrai les bonnes et m’opposerai aux mauvaises.

---
[1] De fait, il est jeune puisqu’il est plus jeune que moi.
[2] L’ADN des Républicains, si vous me permettez ce raccourcis, reste celui du RPF de Charles de Gaulle ; c’est-à-dire une ligne à la fois conservatrice et sociale.
[3] Blague de campagne : « Breaking : aucune nouvelle affaire Fillon depuis 24 heures. » Une bonne partie de la presse s’est acharnée ? Sans doute. Peu importe maintenant : ce qui est fait est fait.
[4] Une formation politique ad’hoc — la « France Insoumise » — construite autour de son seul candidat et une campagne de communication décentralisée à l’américaine.
[5] Et je dis ça d’autant plus librement que j’ai voté pour lui au premier tour pour tenter d’éliminer le Pen et Mélenchon — Caramba ! Encore raté !
[6] Ce qui ne m’est, d’ailleurs, jamais arrivé.

Plus se multiplient les lois et les ordonnances...

« Plus se multiplient les lois et les ordonnances,
plus foisonnent les voleurs et les bandits. »
— Lao Tseu, Tao-tö king

Il y a quelques années de ça, quand je débutais ma carrière, je vendais des fonds d’investissement à de petits investisseurs institutionnels français. Il y avait, là-dedans, un peu de tout : des petites caisses de retraites, quelques entreprises qui avaient accumulé un trésor de guerre mais surtout, des banques régionales qui investissaient en compte propre. C’est en rendant visite au trésorier de l’une d’elles que j’ai réalisé quelque chose d’important.

À priori, lorsque vous rencontrez le trésorier d’une petite banque régionale, vous ne vous attendez pas à discuter avec quelqu’un de très technique. Ce que je dis ici n’a rien de condescendant ; c’est juste un fait : gérer le compte propre d’une petite banque de province, ça n’a rien à voir avec ce qui se fait dans les grandes institutions financières qui, en général, disposent de salles des marchés dédiées et d’équipes de trading de très haut niveau. Dans une petite banque régionale, on fait des choses simples notamment parce qu’on n’est pas outillé pour faire autre chose.

Sauf que, ce jour-là, mon interlocuteur sortait du lot. Le type était manifestement bon. Il était même très bon et, de toute évidence, bien meilleur que moi. La discussion, cordialement au demeurant [1], suivait son cours quand, n’y tenant plus, j’ai posé la question qui me brûlait les lèvres depuis plusieurs minutes : « mais tu faisais quoi, avant ? »

Oh boy! j’avais en face de moi l’ancien patron du desk dérivés de crédit d’une des plus grosses institutions financières européennes. Mon petit trésorier était juste un cador, un type infiniment plus technique que moi. Par quel miracle ? Eh bien c’est très simple : après plusieurs années passées à l’étranger le gars avait eu le mal de pays et avait décidé de rentrer dans son patelin natal ; patelin dans lequel le seul poste à peu près cohérent avec ses compétences était celui de trésorier de la petite banque régionale locale — au passage, il avait divisé son salaire par cinq ou six.

Je vous raconte ça parce qu’hier, Alexandre Delaigue relayait les ennuis judiciaires de BNP Paribas Personal Finance, une filiale de BNP Paribas spécialisée dans les prêts à destination des particuliers. En cause, un type de crédit immobilier bien spécifique au travers duquel la banque proposait à ses clients, entre 2008 et 2009, d’emprunter des francs suisses et de rembourser en euro. Le but de la manœuvre, évidemment, c’était de profiter des taux plus bas en Suisse. Le risque — parce qu’il y en a toujours un — c’était une hausse du cours du franc suisse par rapport à l’euro qui, pour des emprunteurs dont les revenus sont en euros, se traduirait mécaniquement par une augmentation de la valeur de leur dette.

Il faut dire ici qu’au moment où BNP Paribas Personal Finance commercialise ce produit, le pari semble tout à fait raisonnable. Avec, d’une part, la Banque Nationale Suisse qui est un modèle historique de gestion rigoureuse et, d’autre part, la Banque Centrale Européenne qui semblait fermement décidée à suivre cet exemple, parier sur une stabilité de la parité de ces deux devises semblait une stratégie raisonnable. Sauf que c’était sans compter sans la crise ; laquelle a provoqué une envolée du franc suisse que la BNS a bien tenté d’enrayer pendant près de 4 ans… avant de jeter l’éponge le 15 janvier 2015.

Et là, naturellement, pour celles et ceux qui avaient contracté les crédits de BNP Paribas, c’est la catastrophe : « À titre d'exemple, relayent LesEchos.fr, un consommateur ayant emprunté 204 000 euros en 2009 doit aujourd'hui près de 270 000 euros alors qu’il en rembourse chaque mois environ 1 300. » Je l’ai dit plus haut et je ne cesse de le répéter : il n’existe rien de tel qu’un free lunch. Que vous soyez placeur ou emprunteur, vous ne gagnerez pas d’argent sur les marchés financiers [2] sans prendre de risques et le fait que vous n’ayez pas identifié les risques ne signifie en aucun cas qu’ils n’existent pas.

Et c’est bien ce qui est reproché à BNP Paribas : de ne pas avoir alerté — ou du moins pas suffisamment — ses clients des risques qu’ils prenaient. C’est une des dispositions clés de la règlementation (MiFID) : toute institution financière à un devoir de conseil et ce, d’autant plus quand ses clients sont des particuliers.

Et c’est là que je repense à mon trésorier. Lui aussi, de fait, est un particulier. Sitôt sorti de son bureau, redevenu un honnête citoyen comme vous et moi, il est au regard de nos lois un simple particulier et donc, présumé parfaitement incompétent sur à peu près tous les sujets et en matières économiques et financières en particulier. Or, pour les raisons évoquées plus haut, nous savons maintenant vous et moi qu’il n’en est rien : il est plus que probable que mon trésorier soit en réalité plus compétent que les concepteurs mêmes du produit de BNP Paribas.

Mais, me direz-vous, la règlementation impose aux banques d’évaluer les compétences de leurs clients afin, justement, d’identifier ceux qui sont en mesure d’intervenir sur des instruments complexe et ceux qui le sont pas. C’est juste, j’ai moi-même — comme vous sans doute — été soumis à un questionnaire de ce type et j’ai fait comme l’écrasante majorité des professionnels des marchés financiers (et dont @VaeVix) : je me suis déclaré le plus incompétent possible [3].

Pourquoi ? Eh bien c’est très simple : ça me donne la possibilité de faire des paris risqués tout en me retournant contre la banque si d’aventure les vents devaient m’être défavorables. C’est aussi simple que ça. Ça n’est pas très élégant, certes, et je n’en ai d’ailleurs jamais profité. Mais pourquoi diable voulez-vous que je fasse un tel cadeau à ma banque ?

Entendez-moi bien : je n’accuse les clients de BNP Paribas de rien et il est tout à fait possible que la banque soit effectivement en faute. Ce que je dis, et ceux de nos élus qui ont coulé sciemment les comptes de leurs communes m’en sont témoins, c’est que nos règlementations actuelles, non contentes de déresponsabiliser les clients, sont en train de judiciariser à l’excès toute l’industrie financière. C’est une très mauvaise chose. L’excès de règlementation ne profite à personne si ce n’est aux plus malins et aux moins honnêtes d’entre nous.

---
[1] C’est aussi à ça, sur les marchés, que vous reconnaissez très vite les gens du métiers : ils tendent à vous tutoyer très vite et se montrent volontiers amicaux.
[2] Au-delà du taux sans risque s’entend.
[3] Sous le regard goguenard de ma conseillère qui avait bien vu qui émettait mes bulletins de paie.

Le maquis des agences de l’État

Mesdames et Messieurs nos élus,

Il est sans doute inutile que je rappelle ici l’état de nos finances publiques, d’une part, et le peu de crédit qu’accordent la plupart de nos concitoyens à la chose publique c’est-à-dire à notre République, de l'autre. L’heure, vous en conviendrez, n’est plus aux demi-mesures et aux ajustement à la marge : il est temps, il est urgent de mettre de l’ordre et de la transparence dans nos affaires publiques.

Or, il se trouve que, ces dernières semaines, j’ai consacré une (trop) grande partie de mon temps libre — et de celui de quelques amis — à essayer de comprendre quelques chose aux agences de l’État et aux budgets qui leurs sont affectés. Ce que j’y ai vu, Mesdames et Messieurs nos élus, dépasse l’entendement. À l’heure où, après 42 années consécutives de déficits budgétaires et malgré une des pressions fiscales les plus élevées au monde, notre dette publique atteint des sommets historiques, je constate que les fonds qui manque tant à des fonctions essentielles de l’État (police, justice, défense…) ainsi qu'à nos modestes budgets de citoyens sont littéralement gaspillés dans un véritable maquis d’agences publiques.

L’état du maquis

Il n’existe, encore à ce jour, aucune définition claire du périmètre des agences de l’État. Le dernier recensement, celui de l’Inspection Générale des Finances, date de 2012 et évalue leur nombre à 1 244 entités et leur poids à environ un cinquième du budget général de l’État. Les seules définitions officielles sont celle de l’Insee qui identifiait, en 2014, « environ » 700 Organismes Divers d’Administration Centrale (ODAC) et celle des projets de loi de finances qui font état, en 2017, de 492 opérateurs de l’État ; lesquels se voient attribuer un budget de 51.8 milliards d’euros (en crédits de paiement).

Je constate qu’aucune de ces définitions ne permet d’établir une liste précise des entités financées par l’État et encore moins des organismes de toutes sortes qui, à des degrés divers et selon différentes modalités, vivent des deniers publics. La définitions des ODAC, organismes « auxquels l’État a donné une compétence fonctionnelle spécialisée au niveau national », ne permet à l’Insee que de nous donner une liste d’exemples ; celle des opérateurs de l’État ne parvient pas à masquer la part d’arbitraire qu’elle comporte [1].

Et ce, d’autant plus lorsqu’on considère l’invraisemblable variété de statut de ces organismes qui peuvent être, si je m’en tiens à la liste des opérateurs de l’État, des Établissement Publics à caractère Administratifs (ÉPA), des Établissement Public à caractère Scientifique, Culturel et Professionnel (ÉPSCP), des Établissement Public à Caractère Industriel et Commercial (ÉPIC), des Groupement d’Intérêt Public (GIP), des Établissement Public à caractère Scientifique et Technologique (ÉPST) et même des associations.

En d’autres termes, le flou est total. Nous en sommes, en tant que citoyens, réduit à constater une liste aussi interminable que fluctuante de noms à rallonge (l’Institut d'enseignement supérieur et de recherche en alimentation, santé animale, sciences agronomiques et de l'environnement, 125 caractères) et d’acronymes parfaitement abscons (EPPJP, EPPGHV, EPMQB, ENSAIT, ENSSIB, ANGDM, ORAMIP et autres ONCFS) dont les fonctions, quand elles sont accessible à la compréhension du commun des mortels (c’est-à-dire qu’elles ne sont pas une reproduction in-extenso du texte juridique qui justifie leur existence) laissent un désagréable sentiment d’utilité douteuse, de redondance ou les deux [2].

À ça et je termine mes constats là-dessus, se rajoutent naturellement la myriade d’organismes rattachés non pas à l’État lui-même mais aux administrations de sécurité sociale et à nos très nombreuses collectivités territoriales — Agences régionales de l’eau, Centre d’Éducation Populaire et de Sport etc. — lesquelles, naturellement, viennent se télescoper avec des structures nationales existantes. Rien qu’autour de chez moi nous les collectionnons à l’échelle régionale (l’Agence régionale du Livre PACA, l’Agence Régionale pour l’Innovation et l’Internationalisation des Entreprises PACA, l’Agence Régionale pour l’Environnement PACA, l’Agence Régionale du Patrimoine PACA…), départementale (l’ Agence Départementale d’Information sur le Logement des Bouches-du-Rhône) et communal (l’Agence d’urbanisme de l’Agglomération Marseillaise).

Propositions

En conséquence de ce qui précède j’ose croire, Mesdames et Messieurs nos élus, que vous ne pouvez pas, en conscience, ne pas reconnaître qu’une vaste opération de rationalisation s’impose. Voici mes propositions.

Dans un premier temps, il est urgent d’établir enfin une liste exhaustive de toutes les structures — nationales, locales ou liées à la sécurité sociale — qui vivent, en tout ou partie, sous forme de subventions ou de fiscalité affectée, d’argent public. C’est, me semble-t-il, la moindre des choses.

Dans un second temps, il va falloir trier. Tout ce qui peut être privatisé doit l’être — je pense, notamment, aux établissements d’enseignement supérieur [3]. Le reste doit être soit regroupé dans une trentaine d’agences nationales [4] (au maximum) soit sortir définitivement du périmètre des agences publiques.

À titre d’illustration, je vois une bonne vingtaine d’agences nationales qui auraient toute leur place dans une Agence de Protection de l’Environnement ; à commencer par les 27 associations de surveillance de la qualité de l’air (AASQA), les 6 agences de l’eau et tous les opérateurs de l’État qui, sous des angles divers, s’occupent d’environnement.

Toutes les agences de l’État doivent avoir le même statut (ÉPA par exemple), publier leurs rapports d’activité dans des délais raisonnables (6 mois au maximum), présenter leurs comptes au public de façon homogène et être financées exclusivement par des subventions pour service public sur le budget général de l’État [5].

Toutes les structures qui n’ont été ni privatisées ni intégrées dans une agence ne doivent, désormais, être financées que par un seul et unique organisme (l’Agence de Services et de Paiement semble toute désignée [6]). Chaque subvention doit être dûment motivée, ses bénéficiaires clairement identifiés et cette information rendue publique.

C’est à ce prix que les citoyens de ce pays (et par ailleurs contribuables) pourront enfin y voir à peu près clair dans cet inextricable maquis et donc, voter en toute connaissance de cause. Cette opération de rationalisation n’est pas seulement une exigence financière et organisationnelle : c’est aussi et peut être surtout une exigence démocratique.

---
[1] Plus précisément : (i) étant donné le nombre, la diversité et les nomenclatures pour le moins imprécises des 121 programmes dont l’État croit devoir se charger, il va de soi qu’à peu près n’importe quel organisme, quoi qu’il fasse, puisse être « explicitement rattaché » à l’un d’entre eux. Par ailleurs, (ii) s’agissant de la capacité de l’État à « orienter les décisions stratégiques » il est évident que ça s’applique à n’importe quelle personne, physique ou morale, résidant en France. Reste (iii), le « financement assuré majoritairement par l’État » qui pourrait être un critère réellement discriminant à ceci près « qu’il est également possible de qualifier d’opérateur de l’État des organismes ne répondant pas à tous les critères ci-dessus. »
[2] À quoi servent l’Agence nationale pour la cohésion sociale et l’égalité des chances (ACSE), l’Agence nationale pour la rénovation urbaine (ANRU), l’Agence pour la création d’entreprises (APCE) ou le Conservatoire de l’espace littoral et des rivages lacustres (CELRL) ? Avons-nous vraiment besoin, au regard de l’état de nos finances publiques, d’un Observatoire Français des Drogues et des Toxicomanies (OFDT) et d’un Centre Interministériel de Formation Anti Drogue (CIFAD) ? Est-il réellement utile de cumuler un Centre d’étude de l’emploi (CEE) et un Institut national du travail, de l’emploi et de la formation professionnelle (INTEFP) ?
[3] Les écoles d’ingénieur, d’art, d’architecture (etc.) mais aussi les universités, les communautés d’universités et autres chancelleries d’universités. Il coûtera de toute façon infiniment moins cher de verser des bourses aux étudiants dont les revenus sont modestes que de maintenir toutes ces structures dans le domaine public.
[4] J’ai bien écrit nationales : la fuite en avant qui consiste à multiplier les structures locales doit cesser immédiatement et ce, d’autant plus que toutes les structures que j’ai cité à l’échelle de la région PACA ont un ou plusieurs équivalents à l’échelle nationale.
[5] Il est largement temps de mettre fin à ces imbécilités que sont la fiscalité affectée et les subventions entre agences.
[6] Dans laquelle vous aurez l’obligeance d’intégrer l’Agence de financement des infrastructures de transport de France (AFITF) que la Cours des comptes estimait estimait déjà « inutile » et « sans réelle valeur ajoutée » en 2009.

NB : pour celles et ceux qui veulent faire un tour dans la liste des opérateurs de l'État, nous en avons compilé une ici.

Dividendes et investissement

Une idée aussi fausse que répandue voudrait que le choix de payer des dividendes résulte de « la pression qu’exercent les actionnaires au détriment du développement à long terme de l’entreprise. » C’est tout à fait faux. Si vous étiez actionnaire d’une entreprise, ce n’est absolument pas de cette façon que vous envisageriez le problème. La vraie question est : réinvestir, d’accord, mais pour quoi faire ?

Commençons par fixer le cadre. Quand une entreprise privée réalise des bénéfices, elle a le choix entre deux options : la première consiste à distribuer cet argent à ses actionnaires sous forme de dividendes [1], la seconde à réinvestir ses profits. En pratique, la plupart des entreprises et notamment les grandes entreprises, font un peu des deux ; elles distribuent un dividende et réinvestissent le reste.

Payer des dividendes ou réinvestir, c’est un choix stratégique. Si, au regard des perspectives et des opportunités qui s’offrent à vous, vous estimez qu’il existe des projets d’investissement profitables alors, vous avez toutes les raisons de réinvestir : la stratégie des actionnaires des entreprises qui réinvestissent consiste à renoncer à un dividende immédiat pour accroître leurs dividendes futurs ou, s’ils décident de revendre tout ou partie de leurs actions, de réaliser de confortables gains en capital.

C’est ce qu’ont fait, par exemple, les actionnaires de Microsoft et Apple tant que Gates et Jobs [2] étaient aux commandes : ils réinvestissaient systématiquement l’intégralité de leurs bénéfices parce qu’ils avaient des projets d’investissement profitables à foison ce qui, très concrètement, s’est traduit pour eux par des gains en capital spectaculaires.

Encore faut-il, bien sûr, être en mesure de réinvestir dans des projets profitables. Dans le cas contraire, si toutes les possibilités qui s’offrent à eux n’ont que peu de chance de générer des profits à l’avenir, les actionnaires ont tout intérêt à se verser des dividendes. Ils y ont tout intérêt, d’une part, parce qu’investir dans des projets non profitables aujourd’hui c’est la meilleure façon de faire des pertes demain et donc, de voir le cours de leurs actions s’effondrer. Ils y ont tout intérêt, aussi, parce que ça leur permet de réinvestir cet argent dans d’autres projets qui eux, ont de véritables perspectives de développement [3].

C’est-à-dire que réinvestir dans des projets non profitables, concrètement, c’est de la destruction de valeur économique à double titre : non seulement vous mettez en risque votre propre entreprise mais, en plus, vous privez d’autres entreprises en plein développement de capacités de financement. C’est parfaitement et totalement stupide. Microsoft et Apple, leur phase de croissance explosive terminée, ont fini par payer des dividendes [4] et c’est, du point de vue de la croissance et donc de l’emploi, une très bonne chose.

Ce cadre étant posé, toute la question est de savoir dans quelles proportions et comment ça a évolué dans le temps. La mesure classique de ce phénomène, c’est le taux de dividendes (a.k.a. dividend payout ratio) qui consiste simplement à mesurer la part du bénéfice net qui est distribué sous forme de dividendes et donc, par différence, ce qui est réinvesti. Je n’ai malheureusement pas de série sur longue période à vous proposer pour la France ; vous allez donc devoir vous contenter des grandes entreprises étasuniennes de 1871 à 2015 [5] :

De là, vous pouvez constater deux choses. La première, c’est que le taux de dividende est sensiblement plus faible depuis les années 1970 qu’il l’était auparavant. Voilà à peu près 5 décennies qu’il est inférieur à 50% la plupart du temps ; c’est-à-dire que les grandes entreprises étasuniennes réinvestissent plus, en moyenne, qu’elles ne versent de dividendes. En outre, vous remarquez qu’il lui arrive de monter soudainement et même, de dépasser le seuil des 100% [6]. C’est ce qui arrive en période de crise, lorsque les profits des entreprises s’effondrent et que l'heure est plus au désendettement et à la recherche d'économies qu'à l'investissement.

Sauf que voilà : si, aujourd'hui, le taux de dividende des grandes entreprises avoisine les 50% aux États-Unis, il est plutôt de l’ordre de 60% en France.

Pourquoi donc les grandes entreprises françaises se montrent si peu enclines à investir ? Pour ce faire, plutôt que d’empiler maladroitement des indicateurs macroéconomiques ou de laisser libre cours à des préjugés idéologiques, la meilleures façon c’est de comprendre comment s’articule la décision d’investir, en général.

Le critère standard, c’est celui de la Valeur Actuelle Nette (VAN), un processus d’actualisation de cash-flow qui consiste à faire ce qui suit :

$$V_0 = \sum_{t=0}^T \frac{C_t}{(1+k)^t}$$

Où les $C_t$ représentent tous les flux de trésorerie — positifs pour ceux qui rentre dans votre poche, négatifs pour ceux qui en sortent — de la date $0$ (maintenant) à la date $T$ (la fin de votre projet), $k$ est le taux de rendement minimum que vous attendez de ce projet et $V_0$ est la VAN. C’est assez simple à utiliser : si la VAN est négative, vous n’investissez pas et plus elle est positive, plus vous avez envie d’investir. Et donc, votre décision d’investir dépend de deux choses : les profits futurs que vous attendez de votre investissement et le taux ($k$) que vous vous fixez comme objectif minimal à atteindre.

De là, vous comprenez en principe que tout ce qui est de nature à la profitabilité future d’un investissement réduit mécaniquement la VAN et donc, constitue un frein à l’investissement. Que les choses soient très claires : une entreprise privée cherche à faire des profits, c’est sa raison d’être et c’est la seule. Lorsque nos politiques taxent les profits déjà réalisés ils ont une fâcheuse tendance à ne pas comprendre qu’ils envoient, par la même occasion, un signal très clair à ceux qui s’apprêtaient à investir : « abstenez-vous ».

Et ce, d’autant plus que ces profits futurs sont par nature incertains. Lorsque vous investissez dans, par exemple, un nouveau centre de recherche vous ne savez pas si cet investissement sera profitable. Vous l’espérez, vous avez de solides raisons de le croire mais vous ne savez pas. Personne ne connait le futur ; nos $C_t$ sont toujours et en tout lieu des hypothèses.

Et c’est là qu’intervient notre taux de rendement $k$. Considérez ceci : pour un taux de rendement donné, vous préférez investir dans votre centre de recherche aux revenus hypothétiques ou dans une obligation d’État aux revenus presque certains ? Évidemment, à rémunération égale, vous allez choisir l’option la moins risquée [7]. En conséquence de quoi, plus votre projet est potentiellement aléatoire, plus ce taux sera élevé.

C’est notre second problème : investir en France, ça n’inspire pas confiance. Non seulement nos règlementations pléthoriques et incompréhensibles changent tous les quatre matins mais toute entreprise privée, chez nous, est soumise au bon vouloir de la chose politique qui, d’une main, taxe plus ou moins selon son humeur et, de l’autre, distribue des centaines de milliards d’aides publiques tout aussi arbitrairement.

Investir, c’est avant tout un acte de confiance en l’avenir. Si les entreprises n’investissement pas ou peu, c’est principalement parce qu’elles n’ont pas confiance en l’avenir. Objectivement, comment ne pas les comprendre ? Cette campagne présidentielle, par exemple, vous insisterait-elle à risquer vos économies et vos revenus futurs dans une entreprise en France ?

C’est le principe même de ce que nous appelons aujourd’hui le « capitalisme » : être propriétaire de moyens de production — a.k.a. une entreprise — c’est risqué. La rémunération du capital, c’est la rémunération du risque : vous investissez dans votre projet dans l’espoir d’en tirer des profits et au risque d’y laisser des plumes. C’est le principe, c’est comme ça que c’est supposé fonctionner et tant que nos élites qui, pour la plupart, n’ont jamais investi un centime dans une entreprise ne l’auront pas compris, nous n’avancerons pas d’un pouce.

Reste, enfin et je terminerais là-dessus, un troisième phénomène que je crois important. Après tout, que les grandes entreprises investissent peu, c’est dans l’ordre des choses. Quand on est gros on est forcément moins mobile, on a tendance à se reposer sur ses lauriers et il faut tous le génie d’un Steve Jobs pour réussir à convaincre vos actionnaires de repartir à l’aventure.

C’est pour ça qu’historiquement l’innovation et les investissements, c’est plutôt dans les petites entreprises que ça arrive. C’est le domaine des entrepreneurs et des capital-risqueurs : on joue gros en espérant gagner beaucoup mais tout en sachant que les risques sont à la hauteur des gains potentiels.

Or voilà, tout notre modèle économique est conçu pour protéger les gros, ceux qui sont là depuis longtemps, qui ont des contacts bien placés dans l’appareil d’État de la concurrence des petits. La règlementation favorise les gros, le système fiscalo-redistributif favorise les gros, les interventions ad-hoc des ministres favorisent les gros et les petits, ceux par qui de tout temps les investissements, l’innovation et la croissance arrivent, en meurent.

Mesdames et messieurs les politiques, vos incantations, vos comités, vos règlements, vos impôts, vos aides et vos interventions maladroites quand elles ne sont pas catastrophiques ne feront qu’aggraver nos problèmes. Le capitalisme ne fonctionne bien que quand on le laisse fonctionner. Les entreprises de ce pays ont besoin d’un environnement favorable à l’investissement et à la croissance et donc, à l’emploi et au pouvoir d’achat. Elles ont besoin de simplicité, elles ont besoin de stabilité et elles doivent pouvoir faire des profits et les distribuer sous forme de dividendes si elles le jugent opportun.

---
[1] Où, comme ça se fait de plus en plus ces dernières décennies pour échapper à la taxation prohibitive des dividendes, à racheter un certain nombre de ses propres actions ce qui revient à accroître la valeurs des actions détenues par les actionnaires qui restent.
[2] Dans le cas de Steve Jobs c’est particulièrement flagrant puisque, comme vous le savez, il a été absent pendant quelques années : quand il était là, Apple réinvestissait massivement ; dès qu’il partait, Apple payait des dividendes.
[3] Il va de soi qu’un actionnaire individuel peut tout aussi bien décider de « consommer » ses dividendes et certains le font. Néanmoins, la plupart des investisseurs étant des professionnels, ils réinvestissent massivement (et je vous prie de croire que je sais de quoi je parle : c’est mon métier).
[4] Quoi que, dans le cas d’Apple, pas assez : le résultat, aujourd’hui, c’est que la firme de Cupertino est assise sur un énorme tas de cash (des obligations d’État notamment) dont elle ne fait absolument rien. Raison pour laquelle un certain nombre d’investisseurs mettent la pression à Tim Cook.
[5] En l’occurrence, ce sont les titres qui composent l'indice S&P 500, un des principaux indice des marchés d’actions des États-Unis, il couvre les (à peu près) 500 plus grandes entreprises cotées de marché. Les données sont de multpl.com.
[6] Les entreprises versent plus de dividendes qu’elles ne réalisent de profits ; c’est-à-dire qu’elles utilisent leurs fonds propres.
[7] On appelle ça « aversion au risque » et c'est une caractéristique intrinsèque de l'être humain.

Votre mot de passe

On ne va pas épiloguer pendant 150 ans, vous avez besoin : De mots de passe très forts (à partir de 128 bits), un par site (sauf, éventuel...