Fermer

Databricks

Présentation des tables Delta Databricks / Blogs / Perficient

Présentation des tables Delta Databricks / Blogs / Perficient

Les tables Databricks Delta sont une fonctionnalité avancée de stockage et de gestion des données de Databricks, offrant un cadre unifié pour la gestion et l’optimisation des données. Les tables Delta sont construites sur Apache Spark, améliorant les capacités de Spark en fournissant des transactions ACID pour l’intégrité des données, […]

Lire

Écrire des objets Python testables dans Databricks / Blogs / Perficient

Écrire des objets Python testables dans Databricks / Blogs / Perficient

J’ai écrit sur Développement piloté par les tests dans Databricks et certains des questions intéressantes que vous pouvez rencontrer avec des objets Python. J’ai toujours pensé qu’un code qui n’est pas testable est détestable. Certes, il a été très difficile d’arriver là où je voulais être avec Databricks et TDD. […]

Lire

Développement piloté par les tests avec Databricks / Blogs / Perficient

Développement piloté par les tests avec Databricks / Blogs / Perficient

je n’aime pas tester Briques de données cahiers et c’est un problème. J’aime les Databricks. J’aime le développement piloté par les tests. Pas dans un contexte évangélique ; Couverture du code à 100 % ou échec. Je trouve simplement qu’une quantité raisonnable de couverture de code me donne une confiance raisonnable. Databricks […]

Lire

Comprendre le rôle de Py4J dans Databricks / Blogs / Perficient

Comprendre le rôle de Py4J dans Databricks / Blogs / Perficient

J’ai mentionné que ma tentative de implémenter TDD avec Databricks n’a pas été totalement couronné de succès. La configuration de l’environnement local n’était pas un problème et l’obtention d’un identifiant de service pour le composant CI/CD était plus un problème administratif que technique. L’utilisation de simulations pour tester des objets […]

Lire

Développement piloté par les tests avec Databricks (1 sur 2) / Blogs / Perficient

Développement piloté par les tests avec Databricks (1 sur 2) / Blogs / Perficient

je n’aime pas tester Briques de données cahiers et c’est un problème. J’aime les Databricks. J’aime le développement piloté par les tests. Pas dans un contexte évangélique ; Couverture du code à 100 % ou échec. Je trouve simplement qu’une quantité raisonnable de couverture de code me donne une confiance raisonnable. Databricks […]

Lire

Aperçu public de la Fédération Databricks Lakehouse / Blogs / Perficient

Aperçu public de la Fédération Databricks Lakehouse / Blogs / Perficient

Parfois, c’est agréable de pouvoir sauter une étape. La plupart des projets de données impliquent un déplacement de données avant l’accès aux données. Habituellement, ce n’est pas un problème ; tout le monde est d’accord sur le fait que les données doivent être fait disponible avant qu’il puisse être disponible. […]

Lire

Gouvernance des lacs de données avec balisage dans Databricks Unity Catalog / Blogs / Perficient

Gouvernance des lacs de données avec balisage dans Databricks Unity Catalog / Blogs / Perficient

L’objectif de Databricks Unity Catalog est de fournir une sécurité et une gestion centralisées des données et des actifs d’IA dans l’ensemble du lac de données. Unity Catalog fournit un contrôle d’accès précis pour tous les objets sécurisables du Lakehouse ; bases de données, tables, fichiers et même modèles. Finies les […]

Lire