Le nouveau dispositif réglementaire pour le suivi du risque de marché, connu sous le nom de FRTB (Fundamental Review of the Trading Book) doit entrer en vigueur le 1er Janvier 2020. Le document final a été publié par le Comité de Bâle le 16 Janvier 2016. Les études quantitatives d’impact ont mis en évidence une hausse significative de la charge en capital liée aux activités de marché. Cela n’est pas pour surprendre dans la mesure où il s’agissait bien du principal objectif de la réforme, après la crise financière de 2008-2009.

Source: Rod Waddington
Alors que les banques se préparent à ce nouveau dispositif réglementaire, les impacts sur la gestion des risques en termes de gouvernance, de processus et d’infrastructure IT sont également en train d’apparaître. Les impacts IT en particulier découlent de nouvelles exigences significatives, qui vont entraîner une augmentation des besoins en gestion et analyse des données et en capacité de calcul.
Les nouvelles fonctionnalités à implémenter incluent évidemment la refonte complète de l’Approche Standardisée (SA), qui repose à présent sur une « Approche basée sur les sensibilités » (SBA) et le remplacement de la VaR (Value at Risk) par l’Expected Shortfall (ES) comme mesure du risque dans le cadre de l’Approche par les Modèles internes (IMA). Les deux approches sont basées sur une méthode de calcul plus stratifiée et granulaire que précédemment, avec l’application d’horizons de liquidité variables par classes d’actifs. A cela s’ajoute le calcul de la charge pour le risque de défaut (DRC) qui remplace l’IRC (Incremental Risk Charge) et doit être calculée aussi bien pour les actions que pour les produits de taux et de crédit.
Les deux approches requièrent de grands volumes de données historiques, ainsi que des capacités d’analyse et de nettoyage des données, car l’Expected Shortfall en particulier est très sensible aux données anormales. De plus, l’approche des modèles internes requiert d’identifier les facteurs de risques « modélisables » et « non modélisables » sur la base de critères stricts de qualité des données. Etant donné que le non respect de ces exigences fait courir le risque que le superviseur exige de revenir à l’approche standardisée, ce qui entraînerait une hausse du capital réglementaire, le besoin de volumes importants de données de marché de bonne qualité se fait d’autant plus sentir.
Qu’une banque décide de se qualifier pour l’approche des modèles internes et de calculer l’Expected Shortfall, ou d’en rester à l’approche standardisée basée sur les sensibilités, elle devra dans tous les cas implémenter et calculer la SBA (approche basée sur les sensibilités). En effet, cette approche est obligatoire pour tous les produits de titrisation, doit servir de plan de secours en cas d’échec à se qualifier pour l’approche des modèles internes, et surtout, elle doit être calculée et publiée pour l’ensemble des desks de trading. La nouvelle approche standardisée est plus exigeante en puissance de calcul que l’ancienne version. En ce qui concerne l’Expected Shortfall, elle devra être calculée pour la banque dans son ensemble ainsi qu’au niveau de chaque desk de trading. En effet l’autorisation d’utiliser l’approche par les modèles internes sera accordée pour chaque desk individuellement. Afin d’obtenir cette autorisation, les banques devront effectuer des calculs quotidiens d’attribution de performance et de backtesting, qui sont également des exercices très consommateurs en puissance de calcul.
Au final, le nouveau cadre réglementaire semble avoir pour but d’inciter les banques à utiliser le calcul du capital réglementaire comme un outil de pilotage quotidien et non comme juste une obligation supplémentaire de reporting réglementaire. Cependant, cet objectif ne deviendra une réalité que si les banques réussissent à incorporer ces nouvelles exigences dans leurs calculs quotidiens de risque et de résultat.