La mise en œuvre du P&L Attribution Test signe-t-elle la fin des modèles internes pour les risques de marché ?
Le Courrier Financier
– 1 mars 2024
Dans un paysage financier en constante mutation, l’implémentation de la réglementation FRTB (Fundamental Review of the Trading Book) a incité les institutions bancaires à revoir en profondeur leur gestion des risques de marché, en mettant particulièrement l’accent sur l’optimisation des modèles utilisés pour calculer les besoins en capitaux propres. Quels sont les défis et les opportunités découlant de ces changements ? Comment le P&L Attribution Test (PLAT) va-t-il influencer les décisions stratégiques des institutions financières ?
L’éternel dilemme entre approche standard et modèles internes
A l’instar des risques opérationnels et de crédit, les risques de marché entrent dans le calcul des exigences minimales de fonds propres que les établissements doivent détenir au titre du pilier 1 des standard bâlois (règlement CRR). Les Risk-Weighted Assets (RWA), matérialisant le niveau de risque dans ce calcul, peuvent être évalués selon une formule « standard » définie par le régulateur ou selon des modèles internes plus élaborés, propres à chaque banque.
L’approche standard, en dépit de sa simplicité et de son accessibilité accrue, se heurte à des limitations. Son incapacité structurelle à prendre en compte les particularités propres à chaque entité, telles que la nature spécifique de ses activités et la composition de son portefeuille de trading, peut aboutir à une estimation plus grossière et donc en général supérieure des besoins en capitaux propres.
L’approche par modèle interne (Internal Model Approach, IMA) offre quant à elle une solution plus personnalisée, permettant aux institutions financières de développer des modèles de risque adaptés à leurs spécificités, avec des résultats plus fins. Cependant, cette flexibilité est contrebalancée par l’exigence d’un cadre solide de gestion des modèles, combinant des contrôles rigoureux et des conditions de validation strictes, qui impliquent des coûts élevés de construction et de maintenance.
Les banques doivent arbitrer sur le long terme entre une méthode standard plus simple mais plus coûteuse en fonds propres et une méthode avancée aux résultats plus optimisés mais plus exigeante en coûts de fonctionnement.
Un outil normalisé pour garantir l’efficacité des modèles internes…
Le cadre exigeant de validation des modèles internes de pilier 1 vise à assurer la captation par le modèle de tous les risques. Dans le cadre des risques de marché, le P&L Attribution Test (PLAT) sert à évaluer de manière quantitative la capacité du modèle de risque de marché à saisir l’ensemble des risques significatifs auxquels sont exposés les portefeuilles comme le risque de volatilité sur le trading book ou le risque de taux d’intérêt (IRRBB) et de spread de crédit (CSRBB) qui sont inhérents au Banking Book.
L’évaluation se réalise en comparant, sur une période déterminée, les profits et pertes prévus, calculés à l’aide des méthodes de calcul internes, aux profits et pertes réellement observés sur le marché. Des résultats proches et corrélés entre les prévisions du modèle et les observations réelles suggèrent que le modèle intègre efficacement tous les facteurs de risque pertinents, validant ainsi son efficacité. À l’inverse, des divergences remettraient en question la fiabilité du modèle.
… Au prix de lourds investissements
Bien que le P&L Attribution représente une opportunité stratégique pour renforcer les modèles internes
et améliorer la gestion des portefeuilles de trading, il n’est pas sans défis. Du point de vue technique, la
qualité des données constitue un obstacle majeur. La réalisation du test avec des données historiques expose les modèles aux fluctuations parfois exubérantes des marchés. Dans de telles situations, le risque serait que les variations dépassent l’intervalle de fiabilité du modèle.
Parfois, certains scénarios peuvent ne pas être anticipés dans la calibration des modèles, ce qui peut conduire à une sousestimation des risques réels ou à une incapacité du modèle à prédire correctement les conséquences
de ces mouvements. De plus, la complexité de ces processus augmente rapidement en raison de la collecte et du traitement d’un volume important de données provenant de sources diverses tant internes qu’externes, avec des niveaux de granularité et des délais de collecte hétérogènes, quand il ne s’agit pas de l’indisponibilité de certaines données critiques. Par exemple, l’inexistence de données de marché pour certains produits, comme les EMTN structurés non listés, peut compliquer la réalisation du test, remettant en question la validité des résultats.
Le PLAT renforce le cadre déjà exigeant de gestion des modèles fixés par la BCE depuis TRIM. Il se différencie d’autres contrôles basés sur le résultat économique des opérations de trading (comme des évaluations de la performance du portefeuille dans différents scénarios de marché, ou des analyses de stress tests pour évaluer la robustesse des stratégies de trading face à des conditions de marché variées et extrêmes) :
- Sur le plan technique, en allongeant significativement les historiques de données à recueillir, à
qualifier et à historiser ; - Sur le plan organisationnel, en impliquant le renforcement du cadre de contrôle des modèles et
de transformation des données, avec une gouvernance adaptée et une documentation précise.
Le PLAT, l’impulsion pour une standardisation généralisée ?
Face au dilemme coût en fonds propres vs coûts d’exploitation, des établissements de toutes tailles, même des groupes systémiques, ont décidé d’abandonner, sur tout ou partie de leurs activités de trading, leurs modèles internes de pilier 1 coûteux à qualifier, à alimenter en données et à maintenir au profit de la méthode standard. Avec l’augmentation mécaniquement induite des besoins en fonds propres et à rentabilité attendue inchangée, certaines activités pourraient à terme être menacées.
Le cas s’était déjà produit lors de la finalisation du NSFR et avait poussé l’Union Européenne à adopter des pondérations différentes des préconisations du Comité de Bâle pour ne pas pénaliser le marché interbancaire des repos.
Enfin, les économies de fonds propres réglementaires provenant de modèles internes plus fins est en plus limité par l’output floor, fixant un plancher au résultat des modèles internes par rapport à la méthode standard.
Les banques n’abandonneront pas pour autant les modèles internes. Ceux-ci sont toujours indispensables pour l’estimation et l’allocation du capital économique au titre du pilier 2, dans le cadre du Processus d’Evaluation Interne de l’Adéquation des Fonds Propres (ICAAP). Ces modèles internes spécifiques « de pilier 2 » sont encore plus complexes que ceux du pilier en raison de leur plus grande couverture des facteurs de risque et des effets de corrélation dans et entre les portefeuilles. Ils exigent eux aussi la mise en place d’un cadre rigoureux de validation et d’alimentation en données correctement qualifiées, dont le superviseur européen attend qu’il respecte les mêmes contraintes que le P&L Attribution Test.
Au final, les banques sont donc contraintes d’augmenter encore la base de coûts de leurs activités de marché, afin de démontrer la robustesse de leur dispositif de gestion des risques et l’adéquation de leur niveau de capital. La subsistance des modèles internes dans tous les cas impose d’implémenter un cadre rigoureux de contrôle. La décision d’investir dans des modèles internes de pilier 1 (en sus des indispensables modèles de pilier 2) repose donc sur le gain potentiel (mais plafonné) de fonds propres réglementaires sur les activités de marché les plus mal approximées par la méthode standard, i.e. les activités les plus complexes et souvent les plus rentables. Le P&L Attribution Test poursuit indéniablement la stratégie assumée des régulateurs internationaux visant à une réduction drastique des risques complexes portés par les banques.
Par Oumaima Kraimi, Consultante Confirmée chez Square Management.