Si vous ne parvenez pas à donner un sens à vos données d’entreprise, vous volez à l’aveuglette. Les informations cachées dans vos données sont essentielles pour optimiser les opérations commerciales, affiner votre expérience client et développer de nouveaux produits ou de nouveaux secteurs d’activité, comme la maintenance prédictive. L’analytique est le moyen de découvrir ces informations, et le faire correctement nécessite les bons outils pour ingérer et préparer les données, les enrichir et les baliser, créer et partager des rapports, et gérer et protéger vos données et informations. Et alors que les entreprises sont confrontées à des quantités de données de plus en plus importantes, le cloud devient rapidement l’endroit logique où le travail d’analyse est effectué.
Pour de nombreuses entreprises, Microsoft Azure est devenu un hub central pour l’analyse. Prenant l’interprétation la plus large possible de Analyse des donnéesles offres Azure plus d’une dizaine de services – et c’est avant d’inclure Power BI, avec son analyse alimentée par l’IA et nouvelle option datamart, ou des approches axées sur la gouvernance telles que Microsoft Purview. Laissant de côté des options plus spécialisées telles que l’ingestion de télémétrie, le partage de données en externe ou la création de modèles d’apprentissage automatique pour fournir des analyses spécifiques, il existe encore suffisamment de services d’analyse Azure pour que vous vous demandiez lequel est le mieux adapté à un travail donné.
La vérité est que Microsoft vise à fournir aux DSI une pile complète de services d’analyse sur Azure conçus pour fonctionner ensemble, plutôt qu’une approche au coup par coup, déclare Amir Netz, CTO de Microsoft Analytics. Il s’adresse aux responsables informatiques qui souhaitent être des responsables des données, et non des responsables de l’intégration, suggère-t-il.
Bien qu’il existe un chevauchement entre les différents services, Netz explique que les services d’analyse d’Azure correspondent globalement aux couches qu’une organisation construirait lors de la création d’un cadre d’architecture d’analyse, « de la création du lac de données et du stockage des données, du traitement des données dans le lac et de la réalisation l’ingénierie des données, la capacité de construire des entrepôts de données en plus de cela, d’exécuter des algorithmes d’apprentissage automatique, de faire de la science des données, de servir les données aux utilisateurs professionnels », dit-il.
L’annonce récente de la Plateforme de données intelligente Microsoft rend cela plus évident, bien que l’analyse ne soit qu’une partie de cette nouvelle marque.
Nous examinons ici les services d’analyse essentiels de Microsoft Azure, à quoi ils servent et comment ils s’associent pour former une pile complète pour votre stratégie d’analyse dans le cloud.
La raison pour laquelle Azure propose autant de services d’analyse est que vous pouvez y créer toute votre pile.
Microsoft
1. Services d’analyse Azure
Si vous avez l’habitude d’utiliser SQL Server Analysis Services pour l’informatique décisionnelle, Services d’analyse propose ce moteur d’analyse de niveau entreprise en tant que service cloud que vous pouvez également connecter à Power BI. Mais les fonctionnalités de Power BI Premium sont désormais plus puissantes que les fonctionnalités d’Azure Analysis Services. Ainsi, bien que le service ne disparaisse pas, Microsoft proposera un outil de migration automatisé au cours du second semestre de cette année pour les clients qui souhaitent déplacer leurs modèles de données dans Power BI Au lieu.
2. Usine de données Azure
Usine de données est un service de pipelines de déplacement et de transformation de données sans code pour faciliter l’intégration de données provenant de diverses sources dans des entrepôts de données : Pensez ETL (extraire, transformer, charger) et ELT (extraire, charger, transformer) en tant que service avec -dans les connecteurs, mais en mettant l’accent sur la transformation et l’enrichissement des données plutôt que de simplement les déplacer au bon endroit (bien que vous puissiez également l’utiliser pour déplacer des données dans le cloud). Data Factory inclut des fonctionnalités telles que « code par exemple” pour aider les utilisateurs à créer des requêtes, mais propose également des options pour utiliser des langages tels que Python, Java et .NET avec prise en charge de Git et CI/CD, ce qui le rend particulièrement utile pour la migration de SQL Server Integration Services vers Azure.
3. Explorateur de données Azure
Explorateur de données est une plate-forme d’analyse de données volumineuses que vous pouvez utiliser, comme son nom l’indique, pour explorer des données à l’aide de KQL, également connu sous le nom de langage de requête Kusto, du nom de code du projet qui peut ou non être une référence pour explorer votre océan de données comme si vous étiez Jacques Cousteau. Azure Data Explorer est utilisé pour stocker et interroger des données dans des services tels que Microsoft Purview, Microsoft Defender pour Endpoint, Microsoft Sentinel et Log Analytics dans Azure Monitor.
4. Azure Data Lake Analytics
Les entrepôts de données sont conçus pour les questions que vous savez déjà que vous souhaitez poser à propos de vos données, encore et encore. Les lacs de données, d’autre part, vous permettent de stocker des données structurées et non structurées à explorer avec de nouvelles questions que vous n’avez jamais posées auparavant. Azure Data Lake Analytics vous aide à extraire, nettoyer et préparer les données d’Azure Data Lake à l’aide de R, Python, .NET ou U-SQL (qui combine SQL et C#) pour écrire des requêtes, avec des technologies clés d’Azure Cognitive Services incluses en tant que fonctions de traitement de texte, la parole et les images à l’aide de l’apprentissage automatique. Il s’agit d’un service de travail d’analyse sans serveur qui peut gérer la transformation des données à l’échelle du pétaoctet, de sorte que vous payez pour le travail plutôt que d’avoir à gérer l’infrastructure.
5. Azure Synapse Analytique
Si vous souhaitez vous éloigner de la création de votre propre cadre d’analyse que plusieurs équipes de votre organisation utiliseront ensuite pour extraire des données de lacs de données et créer des entrepôts de données auxquels les utilisateurs professionnels doivent accéder et travailler séparément, Synapse Analytique vous offre les capacités des services d’entrepôt de données cloud et de lac de données, mais vous permet d’exécuter votre moteur d’analyse préféré, qu’il s’agisse de SQL ou de Spark, sur toutes vos données, structurées et non structurées, sans attendre les processus ETL ni vous soucier de l’endroit où les données sont stockées ou comment s’y connecter. Les flux de données Synapse Analytics sont alimentés par Azure Data Factory, et si vous utilisez Cosmos DB, les transactions dans votre base de données opérationnelle seront mises en miroir et disponibles pour l’analyse quelques secondes après leur enregistrement, afin que vous puissiez explorer ensemble le Big Data et les données relationnelles. Si les questions sont suffisamment utiles pour être posées encore et encore, vous pouvez les formaliser avec des techniques d’analyse traditionnelles.
6. Azure Databricks
Si vous souhaitez faire tourner des clusters Spark à la demande pour transformer, nettoyer et enrichir vos données, Azure Databrick est un service d’analyse de données volumineuses basé sur Apache Spark et optimisé pour Azure avec des adaptateurs de données pour différents types de données et un espace de travail interactif pour la création de flux de données Spark. Vous pouvez travailler en Python, Scala, R, Java ou SQL, mais il est particulièrement adapté à la création de systèmes d’IA et vous pouvez utiliser des cadres de science des données courants tels que TensorFlow, PyTorch et sci-kit learn, ainsi qu’une intégration avec Azure Machine Learning. .
7. Datamarts dans Power BI
Considérez les datamarts comme des bases de données relationnelles conçues pour effectuer des analyses au niveau de l’unité commerciale plutôt qu’au niveau de l’entrepôt de données de l’entreprise, souvent pilotées par des utilisateurs professionnels qui ont besoin de collecter des données à partir de plusieurs sources et de les intégrer de manière légère. Ils n’ont pas les compétences ou le budget pour fournir un entrepôt de données relationnel complet dans le portail Azure, ils n’ont pas besoin de l’échelle du pétaoctet ou même des téraoctets de données et ils utilisent actuellement des technologies telles que les listes SharePoint ou Excel pour cela. , ce qui en fait un marché mal desservi avec moins de gouvernance que les DSI pourraient préférer.
Datamarts dans Power BI Premium sont une option entièrement gérée, en libre-service et sans code pour jusqu’à 100 Go de données avec des charges de travail automatiquement optimisées pour les performances et une interface utilisateur qui ressemble à Power Query (bien que les utilisateurs avancés puissent écrire des requêtes DAX ou SQL). Datamart découvre les relations entre les tables et génère le jeu de données, en combinant le modèle sémantique de Power BI avec le modèle de base de données relationnelle.
« Vous n’avez pas besoin de savoir quoi que ce soit sur la façon d’être un DBA. Nous ne vous demandons pas de schéma de partitionnement ou comment créer un index », explique Netz. « Vous n’avez pas besoin de savoir comment écrire du SQL et importer des données ou interroger. Tout est visuel. Tout est facile à utiliser. Tout est conçu pour l’utilisateur qui sait créer des rapports Power BI.
Bonus : Azure Stream Analytics et Azure Time Series Insights
Il existe de nouvelles façons d’utiliser l’analyse pour lesquelles le cloud est particulièrement bien adapté. L’analyse traditionnelle se concentre sur les données dans les bases de données, mais avec les capteurs et les appareils IoT, vous disposez de données transitoires et sensibles au facteur temps que vous souhaitez traiter et agir presque en temps réel. Il en va de même pour les applications Web et mobiles du formulaire de flux de clics. Analyse de flux Azure vous permet de consulter les données au fur et à mesure qu’elles arrivent et de les traiter immédiatement pour déterminer si vous souhaitez agir. Ce traitement doit être effectué à proximité de l’endroit où les données sont ingérées. Vous devez donc utiliser Event Hubs pour collecter les données et les transmettre à Stream Analytics. Vous pouvez également agréger les données pour réduire la quantité stockée et les interroger plus tard pour analyser les tendances ou prévoir la demande afin de stocker, par exemple, une moyenne mobile de la dernière seconde plutôt que d’enregistrer la température toutes les millisecondes.
Si vous ne souhaitez pas créer votre propre pile pour ce type d’analyse : Azure Time Series Insights est une plate-forme de bout en bout qui récupère les données des appareils IoT pour que vous puissiez surveiller, analyser, visualiser et agir. Vous pouvez l’utiliser pour repérer les tendances, mettre en évidence les anomalies et creuser les causes profondes, et comme Azure offre une pile complète de services d’analyse, vous pouvez alimenter ces données dans d’autres services tels qu’Azure Databricks ou les utiliser pour créer des modèles avec Azure Machine Learning. . Mais le marché s’éloigne des services à usage unique et Time Series Insights obsolète au profit d’Azure Data Explorer.
Source link