Stratégie de données de gestion des risques – Points de vue d’un surveillant curieux / Blogs / Perficient

Nous assistons à un changement radical dans la manière dont les données sont gérées par les banques et les institutions financières du monde entier. Les données sont banalisées et, dans certains cas, même monétisées par les banques. Bien que cela semble être à un stade où des efforts supplémentaires sont nécessaires en termes d’adoption dans la fonction de gestion des risques. Les gestionnaires de risques traditionnels, de par leur définition de poste, sont très prudents quant aux ensembles de résultats fournis par les équipes d’analyse. J’ai même entendu la phrase « Veuillez vérifier le rapport, je ne comprends pas les modèles et je fais donc confiance au numéro ».
Ainsi, dans la fonction risque, s’il s’agit d’une course à l’agrégation de données, aux données structurées, aux données non structurées, à la qualité des données, à la granularité des données, aux flux d’actualités, aux aperçus du marché, c’est aussi un défi du point de vue de l’acceptation. La vision est que toutes les données peuvent être agrégées, harmonisées et utilisées pour une prise de décision meilleure, plus rapide et plus éclairée en matière de gestion des risques financiers et non financiers. Les interdépendances entre les risques étaient des facteurs qui n’étaient pas pris en compte au « bon vieux temps » de la gestion des risques (jeu de mots).
D’après mon expérience, voici les problèmes courants auxquels sont confrontées les banques qui risquent de ne pas disposer d’une bonne stratégie en matière de données sur les risques.
1. La lutte entre l’informatique et le business (« VOUS ne savez pas ce que VOUS faites »)
C’est selon moi le plus grand défi auquel sont confrontées les banques traditionnelles, notamment dans la fonction risque. « L’entreprise », dans les banques traditionnelles, est traitée comme une entité plus grande que nature qui doit être prise en charge par l’informatique. Cette notion selon laquelle l’informatique est le fournisseur de services, tandis que l’entreprise est le « gagne-pain », en particulier dans les départements des risques des banques traditionnelles ; ne tient plus. Il a été prouvé à maintes reprises que les deux ne peuvent pas fonctionner l’un sans l’autre et c’est également ce qui doit être cultivé en tant qu’état d’esprit de gestion pour les efforts de gestion stratégique des données. Il s’agit d’un changement de culture, mais il se produit lentement et devra être adapté à l’échelle de l’industrie. Il a été prouvé que les institutions financières disposant des données les plus organisées disposent d’un avantage significatif sur le marché.
2. Surcharge de données (« Mec ! Où est mon aperçu »)
L’objectif principal des efforts de gestion, d’approvisionnement et d’agrégation des données devra être de convertir les données en informations. L’équipe analysant les entrepôts de données, les lacs de données et aidant aux analyses devra avoir cet objectif organisationnel majeur à l’esprit. Les banques ont des silos, ces silos ont été créés en raison de fusions, de réglementations, d’entités, de types de risques, de murailles chinoises, de protection des données, de lois foncières ou parfois simplement de défis technologiques au fil du temps. La solution à la plupart de ces problèmes est de commencer par une table rase. Le mandat de la direction pour amener les bonnes personnes à parler et à s’impliquer dans ce changement est crucial, difficile mais crucial. Les bonnes vieilles techniques d’analyse et les séances de brainstorming pour éliminer ce qui est inutile et obtenir le bon ensemble d’éléments sont la clé. Cela nécessite une refonte de la manière dont le secteur bancaire examine traditionnellement les données, c’est-à-dire les éléments nécessaires au reporting. La compréhension du traçage des données et des systèmes de points de contact est cruciale.
3. Le dilemme du CDO (« Méta ou non méta »)
Le rôle du CDO dans la plupart des banques est désormais bien défini. La division d’analyse et de reporting des risques et de la conformité dépend presque uniquement de la fonction CDO pour obtenir des informations sur les rapports réglementaires et d’autres formes d’analyse de données innovantes. Le facteur clé de succès de l’organisation CDO réside dans l’affectation du bon groupe d’analystes aux domaines d’activité. Un analyste CDO du côté des risques de marché, par exemple, devra bien connaître les données de marché, les hiérarchies bancaires, les moteurs de calcul de la VaR, le risque non compris dans la VaR (RNiV) ; des données de référence à l’appui en plus des données des systèmes commerciaux sur lesquelles ces éléments de données auront un impact direct ou indirect. Nonobstant les éléments de données critiques. Une compréhension supplémentaire de l’impact que cela aurait sur d’autres formes de reporting sur les risques, comme le risque de crédit et le risque non financier, est certainement utile. Définir une stratégie de métadonnées pour l’ensemble de la lignée, ses points de contact et ses transformations constitue un effort acharné d’analyse de systèmes appartenant à des équipes disparates avec des modèles de mise en œuvre cloisonnés au fil du temps. Une solution que j’ai vue fonctionner est que chaque groupe/équipe d’application important peut avoir un représentant senior pour l’interaction CDO. L’intérêt des parties prenantes s’avère être le principal facteur de réussite des programmes qui ont réussi. Cela garantit l’exhaustivité de la définition des éléments de données critiques et contribue ainsi à la stratégie de gouvernance des données de manière globale.
4. La nature en constante évolution de la gestion des risques financiers (« Qu’ont-ils changé maintenant ? »)
Les recommandations du Comité de Bâle ont toujours poussé à réinventer les processus dans le domaine de la gestion des risques. Avec la Fundamental Review of the Trading Book (FRTB), l’accent a été très clairement réorienté sur les processus de données dans les organisations. Alors que les grandes banques avaient déjà démontré une bonne compréhension des facteurs de risque modélisables sur la base de scénarios, cette fois le Comité de Bâle a également demandé aux banques de se concentrer sur les facteurs de risque non modélisables (NMRF). Si l’on ajoute l’approche standard (sensibilités définies par le régulateur) et l’approche des modèles internes (IMA – sensibilités améliorées définies par la banque), le passage des calculs de risque basés sur l’entité à des calculs de risque basés sur des documents constitue un changement de paradigme important. La définition d’une source unique pour les données de transaction ainsi que la validation de la structure du bureau semblent être un sujet de préoccupation majeur parmi les banques.
Si l’on ajoute le risque climatique à l’accord de Paris, les calculs RWA nécessiteront désormais des points de données supplémentaires, des modèles supplémentaires et des investissements supplémentaires dans des données externes définissant le risque physique et de transition associé. Les solutions Data-lake / Big Data avec des éléments de données critiques définis et un journal complet des transformations par rapport au lignage représentent un investissement important mais ne feront que favoriser les changements supplémentaires qui interviendront du côté de la réglementation. Il y a toujours eu des banques qui ont toujours été excellentes dans ce domaine et d’autres qui sont à la traîne.
Dans l’ensemble, la gestion des risques s’avère être un excellent cas d’utilisation pour la mise en œuvre d’une stratégie de données CDO inédite, et ces obstacles doivent être surmontés avant d’atteindre l’objectif Zen ultime d’une stratégie de données sur les risques parfaite. Croyez-moi, la première étape consiste à définir correctement la stratégie de données consolidées sur les risques de la banque et tout le reste suivra.
Il s’agit d’un article de 2021, également publié ici – Stratégie de données de gestion des risques – Points de vue d’un surveillant curieux | LinkedIn
Source link