Fermer

Databricks

Intégration des Databricks et du Data Cloud

Intégration des Databricks et du Data Cloud

Lors de Dreamforce 2024, Perficient a exploré l’intégration de Databricks et Salesforce Data Cloud, en se concentrant sur un cas d’utilisation du secteur de l’assurance. Cette session a présenté le traitement des données, l’engagement client et les informations basées sur l’IA, offrant une valeur réelle aux entreprises. Voici un récapitulatif […]

Lire

Le catalogue Unity et le Lakehouse bien architecturé dans Databricks / Blogs / Perficient

Le catalogue Unity et le Lakehouse bien architecturé dans Databricks / Blogs / Perficient

J’ai écrit sur l’importance de migration vers Unity Catalog comme élément essentiel de votre Plateforme de gestion de données. Tout exercice de migration implique le passage d’un état actuel à un état futur. Une migration de Hive Metastore vers Unity Catalog nécessitera une planification autour des espaces de travail, des […]

Lire

Réduire la dette technique avec les tables système Databricks / Blogs / Perficient

Réduire la dette technique avec les tables système Databricks / Blogs / Perficient

Les tables système Databricks sont actuellement en préversion publique, ce qui signifie qu’elles sont accessibles mais certains détails peuvent encore changer. Voici comment Databricks décrit les tables système : Les tables système sont un magasin analytique hébergé par Databricks des données opérationnelles de votre compte trouvées dans le system catalogue. Les […]

Lire

Présentation des tables Delta Databricks / Blogs / Perficient

Présentation des tables Delta Databricks / Blogs / Perficient

Les tables Databricks Delta sont une fonctionnalité avancée de stockage et de gestion des données de Databricks, offrant un cadre unifié pour la gestion et l’optimisation des données. Les tables Delta sont construites sur Apache Spark, améliorant les capacités de Spark en fournissant des transactions ACID pour l’intégrité des données, […]

Lire

Écrire des objets Python testables dans Databricks / Blogs / Perficient

Écrire des objets Python testables dans Databricks / Blogs / Perficient

J’ai écrit sur Développement piloté par les tests dans Databricks et certains des questions intéressantes que vous pouvez rencontrer avec des objets Python. J’ai toujours pensé qu’un code qui n’est pas testable est détestable. Certes, il a été très difficile d’arriver là où je voulais être avec Databricks et TDD. […]

Lire

Développement piloté par les tests avec Databricks / Blogs / Perficient

Développement piloté par les tests avec Databricks / Blogs / Perficient

je n’aime pas tester Briques de données cahiers et c’est un problème. J’aime les Databricks. J’aime le développement piloté par les tests. Pas dans un contexte évangélique ; Couverture du code à 100 % ou échec. Je trouve simplement qu’une quantité raisonnable de couverture de code me donne une confiance raisonnable. Databricks […]

Lire