Fermer

juillet 26, 2022

7 considérations pour l’étape d’approvisionnement en acquisition de données d’une mise en œuvre d’une solution de lignage des données


Le lignage des données est le processus de compréhension, d’enregistrement et de visualisation des métadonnées telles qu’elles circulent de la source de données d’origine à la consommation. L’utilisation d’un outil de lignage des données peut accélérer les processus, cependant, c’est une idée fausse courante qu’un outil de lignage des données peut automatiquement générer un lignage des données entre plusieurs applications en appuyant simplement sur un bouton.

Les plates-formes de lignage des données offrent des avantages significatifs, mais comme toute autre solution d’intelligence artificielle, elles nécessitent une intervention humaine pour réussir. Les capacités techniques de l’outil de lignage des données sont importantes, mais le caractère essentiel de la connaissance humaine ne doit pas être écarté.

Il existe quatre étapes principales dans un effort typique de lignage des données : (1) acquisition/approvisionnement des données, (2) numérisation des données, (3) assemblage des données et (4) validation du lignage des données.

Voici sept questions à considérer lors de l’étape d’acquisition/d’approvisionnement des données :

  1. Qui sont les bons experts en la matière avec les connaissances techniques sur l’application cible ?
  2. Quel est l’objectif général et le contexte de l’application ?
  3. De quelles sources de données l’application cible reçoit-elle les données ?
  4. À quelles sources de données l’application cible envoie-t-elle des données ?
  5. Quel(s) flux de données doit-on prioriser ? La hiérarchisation peut être décidée en fonction des flux de données contenant la majorité des éléments de données critiques ou des données réglementaires, telles que BASEL et CECL.
  6. Quels sont les référentiels de code source qui contiennent les programmes et les scripts impliqués dans le déplacement des données de la source vers les applications cibles ?
  7. Comment les données sont-elles reçues ou envoyées aux applications à partir de flux de données prioritaires ? Les méthodes incluent la base de données, les fichiers mainframe, les messages en temps réel, la transmission de fichiers non mainframe et les interfaces de programmation d’application (API).
  • Base de données
    • Quels sont le nom d’hôte, le numéro de port, le nom du service et le schéma pour demander l’accès à la base de données ?
    • Quels sont les noms de schéma et de table dans lesquels les données résident ?
    • Y a-t-il des procédures stockées impliquées ?
  • Unité centrale
    • Qu’est-ce que le complexe mainframe et la plate-forme de lignage des données dispose-t-elle de la technologie sous-jacente pour prendre en charge ce type de mainframe ?
    • Comment les données sont-elles chargées dans l’application ?
    • Quel est le nom du travail/nom de la procédure, le JCL, les noms des bibliothèques, les programmes COBOL et les cahiers pour le point de départ, le travail intermédiaire et la transmission finale ?
  • Messages en temps réel
    • Quelle est la liste des champs de données pertinents, des numéros de balise correspondants et des noms de colonne de file d’attente de messagerie (MQ) ?
  • Transmission de fichiers non mainframe
    • Quel est le nom du fichier et comment le fichier est-il créé/chargé ?
    • Y a-t-il une copie de la mise en page du fichier ou des exemples de fichiers que vous pouvez fournir ?
    • Existe-t-il un code source ou une procédure stockée qui crée/charge le fichier (c’est-à-dire un programme Java) ?
  • API
    • Quels sont le nom du fichier et le code source ?

Les équipes de services financiers et de solutions de données de Perficient ont une vaste expérience dans la création et le soutien de programmes complexes de gouvernance des données et de lignage des données qui garantissent la conformité réglementaire (par exemple, BCBS 239, CCAR, MiFID II, GDPR, CCPA, FRTB) et permettent la démocratisation des données. En plus de comprendre comment naviguer dans les institutions financières avec de nombreux systèmes complexes, nous avons de l’expérience avec diverses plates-formes et outils de l’écosystème, notamment ASG, Collibra et Informatica Enterprise Data Catalog (EDC).

Que vous ayez besoin d’aide pour les exigences commerciales et informatiques, l’acquisition/l’approvisionnement des données, la numérisation des données, la liaison et l’assemblage des données, l’UAT et l’approbation ou l’analyse des données, nous pouvons vous aider.

Contactez-nous aujourd’hui pour en savoir plus sur notre expérience et comment nous soutenons vos efforts.






Source link