Le didacticiel suivant montre comment utiliser les pilotes JDBC Progress DataDirect Salesforce pour importer les données de Salesforce dans le moteur de stockage S3.
AWS Data Pipeline est un service Web qui vous permet de traiter, transformer et déplacer les données en toute sécurité entre AWS Storage et les services de calcul à intervalles réguliers. En plus de cela, il existe également une fonctionnalité intéressante qui vous permet de vous connecter à n'importe quelle base de données avec le pilote JDBC et d'importer les données dans S3 que vous pouvez utiliser plus tard pour les déplacer entre les services de calcul ou de stockage dans AWS.
Ce didacticiel explique comment tirer parti du Progress DataDirect Salesforce JDBC Driver pour importer les données de Salesforce dans le moteur de stockage S3 avec un minimum d'effort et en créant un pipeline que vous pouvez essentiellement réutiliser plusieurs fois. [19659004] Configuration
- Téléchargez les pilotes JDBC Salesforce Progress DataDirect à partir de ici et installez-les sur votre ordinateur. Si vous avez besoin d'aide pour installer les pilotes sur votre ordinateur, visitez ce lien pour obtenir une documentation détaillée.
- Inscrivez-vous à Amazon Web Services en visitant ce lien .
- Créez un compartiment Amazon S3 à partir de la console AWS en ouvrant la console Amazon S3 à ce lien .
- Ensuite, téléchargez le pilote Salesforce JDBC ( sforce.jar ) qui se trouve dans install_directory Progress DataDirect Connect_for_JDBC_51 lib sur votre compartiment S3 nouvellement créé.
Création du pipeline de données
- Depuis votre console AWS, accédez à la console Data Pipeline et cliquez sur le bouton «Créer un nouveau pipeline».
- Remplissez le Nom de votre choix, sélectionnez Source comme "Construire à l'aide de l'architecte ", choisissez votre programme que vous souhaitez exécuter ce pipeline, choisissez l'emplacement pour enregistrer les journaux sur votre compartiment S3 et laissez les autres options par défaut. A la fin du formulaire, cliquez sur le bouton "Editer dans Architect " pour créer le flux de données. Par défaut, vous devriez voir le pipeline suivant.
DataDirect JDBC pour connecter et importer des données à partir de plus de 50 sources de données, y compris vos sources SaaS, relationnelles et Big data préférées.
Source link