Introduction à trois outils de type ETL - Extract Transform Load - Travaux pratiques

Formation inter-entreprise

À qui s'adresse la formation?

Tout public

Durée

12,00 heure(s)

Langues(s) de prestation

EN

Prochaine session

Prérequis

Database knowledge

Objectifs

Les apprenants seront capables d'ingérer/peupler/charger un modèle d'entrepôt de données.

Contenu

Introduction

L’analyse des données est un processus qui permet d’analyser les performances d’une entreprise, qu’elles soient passées, présentes ou futures, et aide les décideurs à prendre des actions éclairées. Dans le cadre de ce processus d’analyse, les organisations passent par trois étapes. Premièrement, elles collectent des données à partir de systèmes informatiques opérationnels et de sources externes. Deuxièmement, elles transforment et préparent ces données pour l'analyse. Troisièmement, elles exécutent des requêtes sur ces données et créent des visualisations de données, c'est-à-dire des tableaux de bord Business Intelligence (BI) et des rapports pour mettre les résultats analytiques à la disposition des utilisateurs pour une prise de décision optimale. L'objectif de cette activité étant de prendre les meilleures décisions est de permettre aux entreprises par exemple d'augmenter leurs revenus, d'améliorer leur efficacité opérationnelle et d'obtenir des avantages concurrentiels par rapport à la compétition.

Métiers

Les deux premières étapes citées ci-dessus sont réalisées par un "Data warehouse designer", soit un concepteur d’entrepôt de données/conceptrice d’entrepôt de données.

La troisième étape est réalisée par un "Analyste BI" qui est la personne en charge du Reporting et Dashboarding. Dans certains cas, les données sont également fournies à des Data Scientist, ou encore, ils alimentent des systèmes informatiques tiers.

Learning Track

Ce module fait partie d'un Learning Track plus vaste qui compte 24 heures réparties sur deux modules.

Ce module en particulier est composé de trois sessions:

  • Travaux pratiques - réalisation d'un pipeline data avec Talend: Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart
  • Travaux pratiques - réalisation d'un pipeline data avec Datastage: Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart
  • Travaux pratiques - réalisation d'un pipeline data avec Azure Data Factory: Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart

Certificat, diplôme

DLH Certificate of Participation

Informations supplémentaires

Ce module fait partie du Learning Track nommé "Data warehouse designer".

Vous avez la possibilité de vous inscrire:

  • soit pour l’ensemble du Learning Track qui compte 2 modules (24h),
  • soit pour chaque module séparément.

Ces formations pourraient vous intéresser

EN
Journée
Sur demande
Informatique et systèmes d'information - Analyse programmation - Programmation - Programmation web