Tout cela semblait merveilleux, et ce modèle de base et ses ramifications ont dominé la recherche financière pendant des décennies. Le problème, cependant, était que ce n’était pas vrai, ou du moins pas aussi vrai que nous l’avions pensé et espéré. Alors que les économistes financiers affinaient les modèles avec des spécifications plus complètes, il s’est avéré que le bêta ne prédisait pas du tout de gros rendements boursiers. Eugene Fama et Kenneth French ont porté le coup final aux approches précédentes avec un article de 1992 montrant que le bêta n'avait aucune incidence sur les rendements attendus. Étant donné que Fama lui-même était l’un des premiers architectes de la pensée de type CAPM et que French était également un économiste financier renommé, ces révisions du modèle étaient crédibles. Malgré toutes ses promesses initiales, le marginalisme et la notion associée d’utilité marginale décroissante ne semblaient plus contribuer à expliquer les rendements des actifs.

En utilisant un récit plausible de l’histoire intellectuelle, le déclin du marginalisme peut être daté de cet essai de 1992. Dans le domaine de l’économie et de la finance le plus rigoureux, le plus fondé sur les données et le mieux rémunéré, les constructions marginalistes avaient toutes les chances de réussir. En fait, ils ont dirigé le conseil d’administration pendant plusieurs décennies. Mais avec le temps, ils ont échoué. Dans le domaine le plus prestigieux de l’économie, le marginalisme est en déclin depuis plus de 30 ans et ne montre aucun signe de retour.

Nous savons déjà que la pratique financière est dominée par les quants (non économiques). Mais qu’en est-il de la recherche en économie financière, c’est-à-dire des parties encore réalisées par les économistes ? Quelle direction prend ce travail ?

J'ai été impressionné par un article de 2024 publié dans le Journal of Financial Economics, l'une des deux principales revues d'économie financière (Journal of Finance est l'autre). Les auteurs sont Scott Murray, Yusen Xia et Houping Xiao, et le titre est « Charting by Machines ». Le résultat principal est assez simple et s’exprime mieux dans le résumé bien rédigé :

Le pouvoir prédictif est valable dans la plupart des sous-périodes et est fort pour les 500 plus grandes actions. La fonction de prévision présente des non-linéarités et des interactions importantes, est remarquablement stable dans le temps et capture des effets distincts de l'élan, du renversement et des signaux techniques existants. les modèles d’apprentissage qui fonctionnent bien en optimisation fonctionnent également bien hors échantillon. Murray, Xia et Xiao (2024, p. 1). Ou considérez le nouveau travail de Borri, Chetverikov, Liu et Tsyvinski (2024). Ils proposent un nouveau modèle non linéaire de tarification des actifs à un facteur. En résumé : « La plupart des facteurs financiers et macro-économiques connus deviennent insignifiants dans le contrôle de notre seul facteur. » Cependant, cet article ne couvre pas les variables économiques traditionnelles, mais concerne uniquement les mathématiques, en particulier une représentation du théorème de représentation de Kolmogorov-Arnold.

En d’autres termes, l’approche efficace pour prédire les rendements consiste à abandonner la théorie traditionnelle du portefeuille et à utiliser la technique « sans théorie » de l’apprentissage automatique. Bien que cela ait été publié dans le Journal of Financial Economics, à certains égards, il ne s’agit pas du tout d’un argument économique. C'est de l'arithmétique, couplée à une expertise en mathématiques et en informatique. La modélisation n’est pas une modélisation économique associée au marginalisme ou à la théorie microéconomique intuitive standard. Et le travail consiste à prédire les rendements excédentaires d’une manière assez robuste et réussie…

Il existe un document de travail récent, peut-être encore plus frappant, rédigé par Antoine Didisheim, Shikun (Barry) Ke, Bryan T. Kelly et Semyon Malamud. Ils sont basés sur la théorie des prix d’arbitrage (APT), une idée établie en économie financière. APT recherche généralement des « facteurs » dans les données qui prédisent des rendements excédentaires, et un modèle APT traditionnel aurait pu en trouver cinq ou six. L’« inflation » ou peut-être « la structure par terme des taux d’intérêt » sont-ils des facteurs utiles ? Eh bien, c'est discutable, mais si c'est le cas, ces résultats semblent plutôt intuitifs. Mais ces intuitions semblent disparaître. Dans un article de ces auteurs, ils appliquent des méthodes d’apprentissage automatique pour rechercher des facteurs supplémentaires. Comme nous le savons, l’apprentissage automatique est très efficace pour trouver des liens non évidents dans les données. Le plus grand modèle qu'ils ont construit comporte 360 ​​000 (!) facteurs et réduit les erreurs de tarification de 54,8 % par rapport au modèle classique à six facteurs de Fama et French. Bravo aux auteurs, mais selon vous, quels types d’intuitions peuvent éventuellement être soutenues par ces 360 000 facteurs ?

Ceci est tiré de mon nouveau livre The Marginal Revolution: Rise and Decline, and the Pending Revolution in AI.

L'article L'économie financière est-elle encore de l'économie ? est apparu en premier sur Marginal REVOLUTION.

#Léconomie #financière #estelle #encore #léconomie