Fermer

Data

Conseils d’experts pour embaucher (et retenir) des data scientists

Alors que les responsables informatiques ont de plus en plus besoin de scientifiques des données pour obtenir des informations révolutionnaires à partir d’un déluge croissant de données, l’embauche et la fidélisation de ces personnels clés des données revêtent une plus grande importance. Sans suffisamment de data scientists de haut niveau formés Pour pourvoir tous les postes vacants, les DSI travaillent avec des spécialistes des ressources humaines et du recrutement pour trouver des moyens d’attirer des candidats. Et une fois qu’ils les ont embauchés, l’astuce consiste alors à empêcher ces employés très recherchés de partir pour un […]

septembre 4, 2022

Lire l'article

Migration vers le cloud à l’aide de Denodo Data Virtualization

De nombreuses entreprises migrent leur infrastructure informatique vers le cloud pour diverses raisons telles que la réduction des besoins informatiques, le stockage physique des données, le coût, l’accessibilité, les déploiements rapides, la consolidation, la contrôlabilité, l’augmentation de la productivité, l’efficacité et la sécurité. La migration vers le cloud est un processus complexe, et il peut avoir des impacts commerciaux négatifs si la stratégie de migration correcte et les meilleures pratiques ne sont pas suivies pour terminer la migration avec moins de temps d’arrêt. Cette migration doit être une approche progressive pour les systèmes critiques sur des […]

août 27, 2022

Lire l'article

Maximiser les avantages de Data Lake avec Denodo

Lac de données : Data Lake est un référentiel centralisé qui contient une grande quantité de données dans des formats natifs et bruts. Le lac de données dispose de systèmes de fichiers distribués qui fournissent un stockage bon marché de gros volumes de données. Il prend en charge différents formats de fichiers tels que Parquet, CSV, JSON, etc. Il prend en charge des moteurs d’exécution parallèles massifs qui ne nécessitent pas de matériel spécial et ces moteurs sont complètement séparés du stockage. Il offre une exécution moins chère par rapport à l’entrepôt de données. Dans Data Lake, […]

août 23, 2022

Lire l'article

L’essor du data lakehouse : une nouvelle ère de valeur des données

Avec 65 millions de doses de vaccins à administrer au plus fort de la pandémie de COVID-19, Luigi Guadagno, CIO de Walgreens, avait besoin de savoir où les envoyer. Pour le savoir, il a interrogé le Data Lakehouse de Walgreens, mis en œuvre avec la technologie Databricks sur Microsoft Azure. « Nous avons tiré parti de la maison du lac pour comprendre le moment », déclare le CIO. Pour Guadagno, la nécessité de faire correspondre la disponibilité des vaccins à la demande des patients est venue au bon moment, sur le plan technologique. La chaîne pharmaceutique géante avait […]

août 18, 2022

Lire l'article

Déverrouiller la valeur cachée des dark data

Les responsables informatiques qui cherchent à tirer une valeur commerciale des données que leurs entreprises collectent sont confrontés à une myriade de défis. La moins bien comprise est peut-être l’occasion manquée de ne pas tirer parti des données qui sont créées et souvent stockées, mais avec lesquelles on n’interagit que rarement. Ces soi-disant « données obscures », du nom de la matière noire de la physique, sont des informations collectées de manière routinière dans le cadre de la conduite des affaires : elles sont générées par les employés, les clients et les processus commerciaux. Il est généré sous forme […]

août 11, 2022

Lire l'article

Flux de données dans Azure Data Factory

Aperçu: Les flux de données sont l’une des fonctionnalités d’Azure Data Factory qui permet aux ingénieurs de données de développer une logique de transformation de données dans une approche graphique sans écrire de code. Les flux de données résultants peuvent ensuite être exécutés en tant qu’activités dans les pipelines Azure Data Factory qui utilisent des clusters Spark scale-out. Vos flux de données s’exécuteront sur votre propre cluster d’exécution pour un traitement de données évolutif. ADF gère en interne toute la traduction du code, l’optimisation des étincelles et l’exécution de la transformation. Les activités de flux de […]

août 4, 2022

Lire l'article

Fonctionnalités clés récemment rendues disponibles dans Oracle Enterprise Data Management

La version la plus récente des nouvelles fonctionnalités d’Oracle Enterprise Data Management contient des fonctionnalités intéressantes. Continuez à lire ci-dessous pour en savoir plus! Interrogation de point de vue La possibilité de rechercher des nœuds dans Oracle EDM a été considérablement améliorée avec l’ajout récent de Viewpoint Queries. Désormais, les utilisateurs peut facilement trouver des nœuds dans un point de vue où les propriétés correspondent aux critères spécifiés. Vous trouverez ci-dessous quelques considérations importantes pour les utilisateurs qui souhaitent utiliser cette fonctionnalité. Tous les nœuds de n’importe quel point de vue ou uniquement ceux situés sous […]

août 3, 2022

Lire l'article

Voici les salaires moyens des data scientists en Europe en 2022

Cette article a été initialement publié sur .cult par Louis Minvielle. .culte est une plate-forme communautaire basée à Berlin pour les développeurs. Nous écrivons sur tout ce qui concerne la carrière, réalisons des documentaires originaux et partageons des tas d’autres histoires inédites de développeurs du monde entier. Si vous vous souvenez de nos enquêtes et analyses passées, vous vous souviendrez peut-être d’un curieux postulat que nous avons avancé : même si leurs talents sont très demandés, il peut être difficile pour les data scientists, développeurs, et les ingénieurs de données pour connaître leur valeur. C’est presque comme […]

juillet 30, 2022

Lire l'article

Filtrage, fusion et ajout d’une nouvelle colonne dans Azure Data Factory

Usine de données Azure est un outil ETL puissant, avec la capacité de créer des pipelines ETL en utilisant une approche low code/no code. Ceci peut être réalisé en utilisant « Activités”. Les activités sont les tâches exécutées sur les données d’un pipeline. Dans cet article, je démontre un processus ETL qui copie des données d’une source à une autre et effectue certaines tâches sur les données à l’aide de Activités dans Azure Data Factory comme suit : Extrait les fichiers avec une sous-chaîne spécifique dans leurs noms de fichier à partir d’un pool de fichiers de […]

juillet 26, 2022

Lire l'article