Virtualisation des données – Perficient Blogs
Les utilisateurs finaux des grandes banques de données doivent être protégés de l’obligation de savoir comment les données sont organisées dans la machine – la représentation interne. Généralement, la plupart des programmes d’application ne devraient pas être affectés lorsque la représentation interne des données est modifiée ou même lorsque certains aspects de la représentation externe sont modifiés.
Le principe directeur de la virtualisation des données est :
Les utilisateurs et les applications doivent être indépendants de la structure physique et logique des données
Abstraction et découplage des données
Les entreprises stockent de nombreuses données sur différentes sources de données qui se construisent au fil du temps.
Ces sources de données sont développées à l’aide de technologies différentes et ont des modèles de données très différents les uns des autres, qui incluent à la fois des données structurées et non structurées.
Dans une structure typique d’entrepôt de données, nous constatons généralement que les données fournies sont utilisées par deux types de personnes :
- Le premier est l’informaticien qui fait le développement des données (IT View)
- Le deuxième est l’utilisateur final qui se concentre sur les données uniquement du point de vue de l’entreprise (Business View)
Du point de vue informatique, nous devons gérer des systèmes hétérogènes qui sont différents schémas, langage de requête, modèles de données, mécanismes de sécurité et doivent faire face à un environnement en évolution rapide comme les conditions commerciales, l’évolution technologique, les changements d’infrastructure.
Les utilisateurs finaux voient les relations entre les actifs de données, par exemple si les modèles sont stables dans le temps, les politiques commerciales sont exprimées en termes de modèle et les utilisateurs finaux s’attendent à des performances constantes.
L’avenir des mégadonnées
Avec quelques conseils, vous pouvez créer une plate-forme de données adaptée aux besoins de votre organisation et tirer le meilleur parti de votre capital de données.
Avec la croissance croissante des Hi-Data, la complexité informatique et la Hi-Latency, il est urgent de découpler ces deux éléments. Pour obtenir des données en temps réel et effectuer des analyses de données, nous devons créer une couche entre elles.
Voici donc la virtualisation des données.
Qu’est-ce que la virtualisation des données ?
La virtualisation des données agit comme une couche d’abstraction. Il comble le fossé entre la complexité des équipes informatiques et les besoins de consommation de données des utilisateurs professionnels.
Combler le fossé
La virtualisation des données est une couche logique qui :
- Fournit des données commerciales en temps réel aux utilisateurs professionnels
- Connectez-vous à des sources de données disparates et intégrez-les sans répliquer les données
- Permet un accès plus rapide à toutes les données, réduit les coûts et est plus agile face aux changements
Ainsi, nous pouvons définir la virtualisation des données comme –
« La virtualisation des données peut être utilisée pour créer des vues virtualisées et intégrées des données en mémoire plutôt que d’exécuter le déplacement des données et de stocker physiquement les vues intégrées dans une structure de données cible. Il fournit une couche d’abstraction au-dessus de l’implémentation physique des données, pour simplifier la logique de requête. »
Ce que la virtualisation des données n’est pas –
- Ce n’est pas un outil ETL – les outils ETL sont conçus pour répliquer des données d’un point à un autre
- Ce n’est pas de la visualisation de données – Les outils de visualisation de données sont Tableau, Power BI
- Ce n’est pas une base de données – La virtualisation des données ne stocke aucune donnée
Pourquoi la virtualisation des données ?
La virtualisation des données est utilisée pour l’intégration des données. Mais la question se pose : pourquoi utiliser la virtualisation des données pour l’intégration alors que nous avons déjà différents autres concepts comme ETL et ESB ?
Les processus d’extraction, de transformation et de chargement (ETL) ont été les premières stratégies d’intégration de données.
Dans un processus ETL, les données sont extraites d’une source, transformées et chargées dans un autre système de données. Ce processus a été très efficace et efficace pour déplacer un grand ensemble de données. Mais le déplacement de données vers un autre système nécessite un nouveau référentiel. Et ce référentiel doit être entretenu de temps en temps. De plus, les données stockées ne sont pas des données en temps réel. L’utilisateur final doit attendre que les nouvelles données soient à nouveau chargées et prêtes à être utilisées.
Ainsi, les principaux défis étaient :
- Données en temps opportun
- Données disponibles
- Données instantanées
- Données adaptables
Mais la virtualisation des données corrige tout cela et fournit des données qui sont :
- Disponible
- Intégré
- Cohérent
- Corriger
- Opportun
- Instantané
- Documenté
- De confiance
- Actionnable
- Adaptable
La virtualisation des données prend en charge une grande variété de sources et de cibles, ce qui en fait une stratégie d’intégration de données idéale pour compléter les processus ETL.
Source link