Les modèles génératifs ont démontré leur efficacité dans des domaines variés comme la synthèse d’image ou le traitement du langage. Mais leur application à la modélisation des rendements financiers reste incertaine. Dans un article prépublié en janvier, deux chercheurs français, Charles-Albert Lehalle au Centre de mathématiques appliquées de l’École Polytechnique et Adil Rengim Cetingoz du Centre d’économie de la Sorbonne, analysent les contraintes fondamentales de ces approches dans le contexte de la finance de marché, et proposent une nouvelle architecture pour produire des données synthétiques exploitables dans la construction de portefeuilles.
La taille de l’échantillon initial, un facteur limitant structurel
L’étude commence par établir un résultat théorique : dans le cas de l’estimation d’indicateurs statistiques à partir de données générées, l’augmentation du nombre de points synthétiques ne compense pas les biais liés à un faible échantillon d’origine. Au contraire, générer massivement des données à partir d’un modèle entraîné sur un petit jeu de données peut conduire à des estimations systématiquement biaisées. Si la précision d’un modèle dépend de la taille de l’échantillon d’entraînement, alors, au-delà d’un certain seuil, ajouter plus de données générées n’améliore pas l’estimation d’une grandeur cible — cela peut même l’éloigner de la valeur réelle.
Des modèles mal adaptés à l’optimisation de portefeuilles
Or, les auteurs montrent que les modèles génératifs standards ne prennent pas en compte la manière dont les données seront utilisées. En particulier, dans le cadre de la construction de portefeuilles selon le critère de Markowitz (maximisation du rendement espéré sous contrainte de risque), les erreurs commises sur certaines directions du signal ont plus d’impact que d’autres. Le résultat est un modèle qui produit des données réalistes au sens global, mais inutilisables pour des stratégies long-short ou neutres au marché.
Pour pallier ces limites, l’article propose une architecture combinant réduction de dimension, modélisation générative et ajustements paramétriques. Les auteurs travaillent sur un univers de 433 actions américaines issues du S&P 500, sur la période 2010-2024, et décomposent les rendements en deux composantes : une partie factorielle et un résidu idiosyncratique.
Les facteurs sont ensuite modélisés séparément à l’aide de GANs dotés d’architectures convolutionnelles temporelles, avec une mémoire de 63 jours. Pour limiter le besoin en données, les facteurs sont regroupés par clusters statistiques et appris collectivement.
Une fois entraîné, le modèle est capable de générer des scénarios de marché réalistes en recomposant les rendements à partir des facteurs simulés, du bruit idiosyncratique et des moments empiriques (moyenne et écart-type) observés dans les données réelles.
Des résultats convaincants sur les faits stylisés
Les données générées sont évaluées selon plusieurs axes : préservation des moments marginaux (skewness, kurtosis, VaR, expected shortfall), structure de corrélation entre actifs, dynamique temporelle (volatilité conditionnelle, effet de levier) et trajectoires de portefeuilles. Les distributions simulées reproduisent bien les propriétés des données historiques, avec des corrélations dynamiques plausibles et une structure sectorielle comparable à celle observée.
Les performances du portefeuille équipondéré simulé sont cohérentes avec les statistiques observées (Sharpe ratio, drawdown, moments de distribution), y compris sur des horizons hebdomadaires et mensuels. La dynamique intertemporelle (clustering de volatilité et asymétrie temporelle) est également préservée.
Un critère d’évaluation centré sur l’usage final
Enfin, l’étude propose une méthode d’évaluation dite « régurgitative », inspirée de récents travaux sur l’entraînement des modèles de langage. Il s’agit de générer un échantillon synthétique, puis de réentraîner un modèle sur ces données, et d’évaluer s’il est capable de retrouver les propriétés cibles — ici, le profil de ratio Sharpe d’une stratégie de réversion à la moyenne selon différentes fenêtres d’observation. Ce test « d’identifiabilité » permet de détecter les modèles qui produisent des données cohérentes au sens global, mais non pertinentes pour l’usage visé.
Les résultats montrent que le modèle proposé échoue encore à capturer parfaitement le profil de performance des stratégies long-short, plus sensibles aux composantes à faible variance. Mais il surpasse les approches de bootstrap classique en termes de réalisme structurel.
Pour en savoir plus :
- Adil Rengim Cetingoz et Charles-Albert Lehalle, Synthetic Data for Portfolios: A Throw of the Dice Will Never Abolish Chance, Arxiv, 2025