Formation Microsoft Fabric
ACCESS IT
Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin.
A l'issue de la formation le participant sera capable de :
comprendre l’architecture et les composants de Microsoft Fabric (Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator),
construire des flux de données, transformer des données, déployer via CI/CD et réaliser un projet complet de bout en bout.
Jour 1 – Découvrir Microsoft Fabric et comprendre ses fondations
Module 1 – Bien démarrer avec Microsoft Fabric
Introduction à l’analytique de bout en bout à l’aide de Microsoft Fabric
Comprendre la vision analytique unifiée de Microsoft Fabric
Explorer le concept de plateforme « tout-en-un » pour la donnée
Découvrir les composants principaux : Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator
Équipes de données et Microsoft Fabric
Identifier les rôles dans un projet Fabric (ingénieur, analyste, data scientist)
Collaboration dans les espaces de travail
Activer et utiliser Microsoft Fabric
Activation et navigation dans Microsoft Fabric depuis Power BI Service
Création d’un espace de travail Fabric
Comprendre les licences et capacités
Bien démarrer avec les Lakehouses dans Microsoft Fabric
Introduction au concept de Lakehouse
Comparaison avec Data Lake et entrepôt de données
Structure et composants : fichiers, tables, notebooks, pipelines
Explorer le Lakehouse Microsoft Fabric
Découverte de l’interface du Lakehouse
Ingestion simple d’un fi chier (CSV/Excel)
Visualisation des données importées
Exercice – Créer et ingérer des données avec un Lakehouse Microsoft Fabric
Créer un Lakehouse
Charger des données locales
Explorer les données via l’interface
Jour 2 – Manipuler et transformer des données avec Spark
Module 2 – Utiliser Apache Spark dans Microsoft Fabric
Se préparer à l’utilisation d’Apache Spark
Comprendre le rôle de Spark dans Fabric
Découvrir les notebooks Spark : cellules, exécution, résultats
Comprendre l’intérêt du traitement distribué
Exécuter du code Spark (sans Python requis)
Manipuler des données via l’interface graphique
Introduction simplifiée aux DataFrames (concept et structure tabulaire)
Utiliser des données dans un DataFrame Spark
Charger un fichier dans un DataFrame
Effectuer des opérations simples : filtrer, regrouper, agréger
Utiliser des données à l’aide de Spark SQL
Comprendre Spark SQL
Écrire des requêtes SQL pour transformer les données
Créer des vues temporaires
Visualiser des données dans un notebook Spark
Créer des visualisations simples (barres, lignes, histogrammes)
Exercice – Analyser des données avec Apache Spark
Charger des données dans un notebook
Réaliser quelques requêtes Spark SQL
Générer une visualisation de base
Jour 3 – Travailler avec Delta Lake et orchestrer les flux de données
Comprendre Delta Lake
Présentation du format Delta et de ses avantages
Gestion des versions et transactions ACID
Créer et manipuler des tables Delta
Créer une table Delta depuis un DataFrame ou Spark SQL
Lire et mettre à jour des données
Survol – Streaming avec Delta Lake
Introduction conceptuelle (sans pratique)
Exercice – Utiliser des tables Delta dans Apache Spark
Créer une table Delta
Interroger les données via Spark SQL
Module 4 – Utiliser des pipelines Data Factory dans Microsoft Fabric
Comprendre les pipelines
Présentation du service Data Factory dans Fabric
Notions : pipeline, activité, connecteur, exécution
Utiliser l’activité Copier des données
Copier des données depuis une source (CSV, base SQL, API, etc.)
Définir les paramètres source et destination
Utiliser des modèles de pipeline
Découvrir les modèles prédéfinis pour ingestion rapide
Exécuter et superviser des pipelines
Lancer un pipeline
Suivre les exécutions et logs
Exercice – Ingérer des données avec un pipeline
Créer un pipeline simple
Copier des données dans un Lakehouse
Vérifier le résultat dans le workspace
Jour 4 – Construire un entrepôt de données et découvrir les usages temps réel
Module 5 – Implémenter un entrepôt de données avec Microsoft Fabric
Comprendre les principes de base d’un entrepôt de données
Notions de tables de faits et de dimensions
Rôle du Data Warehouse dans Fabric
Comprendre les entrepôts de données dans Fabric
Création et exploration d’un entrepôt de données
Tables, vues et schémas
Interroger et transformer des données
Utiliser l’éditeur SQL intégré
Requêtes analytiques simples
Sécuriser et monitorer un entrepôt de données
Découverte du masquage dynamique des données
Sécurité au niveau des lignes et colonnes
Exercice – Analyser et sécuriser des données dans un entrepôt
Créer un entrepôt Fabric
Charger des données et exécuter des requêtes
Appliquer une règle de sécurité simple
Module 6 – Bien démarrer avec Real-Time Intelligence et Data Activator
Décrire Real-Time Intelligence de Microsoft Fabric
Comprendre le traitement temps réel
Présentation du hub temps réel
Comprendre les tables et requêtes KQL
Découverte du langage Kusto (KQL)
Écrire quelques requêtes simples sur des données simulées
Comprendre Data Activator
Principe des déclencheurs, conditions et actions
Cas d’usage : surveillance et automatisation
Exercice : utiliser Data Activator dans Fabric
Créer un déclencheur sur une source de données
Définir une action automatique
Jour 5 – Automatiser et déployer avec Azure DevOps + projet fi nal
Module 7 – Intégrer le CI/CD avec Azure DevOps
Comprendre le besoin de CI/CD dans Fabric
Importance de l’automatisation et du versionnement
Intégration continue et déploiement continu (principes de base)
Introduction à Azure DevOps
Présentation des services : Repos, Pipelines, Boards, Artifacts
Créer un projet Azure DevOps
Connecter Fabric à Azure DevOps
Gérer le code source des notebooks, pipelines et entrepôts
Déployer automatiquement les artefacts Fabric
Mettre en place un pipeline CI/CD simple
Créer un pipeline YAML
Exécuter un déploiement Fabric automatisé
Exercice : Automatiser un déploiement Fabric avec Azure DevOps
Créer un pipeline d’intégration continue
Déployer une mise à jour de Lakehouse
Module 8 – Atelier de synthèse (Projet de fin de formation)
Objectif :
Mettre en oeuvre l’ensemble du parcours de bout en bout.
Étapes :
1. Créer un Lakehouse et ingérer un jeu de données réel
2. Transformer et stocker les données dans Delta Lake
3. Orchestrer le chargement avec un pipeline Data Factory
4. Déployer automatiquement avec Azure DevOps
5. Tester la supervision avec Data Activator
Présentation finale :
Chaque participant présente son mini-projet Fabric.
30 années
d'expertise
Sessions garanties
chaque mois
Plus de 96 %
des apprenants satisfaits
À propos du centre ACCESS IT
Access it : l'ambition de réinventer les méthodes de travail et développer le numérique
Face à une dépendance toujours plus importante des entreprises aux outils numériques, le monde du travail se retrouve face à un changement structurel d'une ampleur sans précédent. Outils collaboratifs, télétravail, réunions à distance, ... les possibilités offertes par le numérique représentent des opportunités d'un nouveau genre pour le monde professionnel. Mais, les entreprises, parfois trop peu sensibilisées à ces nouveaux sujets, se retrouvent submergées par des situations auxquelles elles ne sont pas préparées.
Afin d'aider les entreprises face à ces nouveaux enjeux, Access it se meut comme le pivot qui doit permettre aux entreprises de réussir leur virage vers la numérisation de leurs outils. À travers la formation et l'accompagnement, l'institut de formation Lillois aide les entreprises à naviguer dans cette "révolution mondiale de l’environnement de travail". À terme, comme l'explique Access it dans son manifeste, leur aspiration est de réinventer les méthodes de travail en facilitant la collaboration, les échanges et le partage. Une mission de taille, mais d'une importance capitale selon l'institut, où la formation représente une place centrale du processus de réussite.
Une reconnaissance nationale et internationale dans la qualité des formations proposées
Fort de la qualité de ses formations, Access it est récompensé par un partenariat Microsoft Gold, qui vient récompenser tout le travail fourni par l'organisme en matière de formation. L'institut Lillois possède ainsi le plus haut niveau de certification en Développement d’Application, Collaboration et Contenu, Productivité cloud et Plateforme cloud.
À l'échelle nationale, Access it fait partie du groupe HUNIK, un regroupement de cinq sociétés spécialisées dans l'ingénierie informatique, dans l'optique d'accélérer son développement et répondre à toujours plus de besoins à l'échelle de l'hexagone, notamment sur son offre de formation. En chiffres, le groupe HUNIK et Access it représentent plus de 30 ans d'expériences dans le domaine de l'informatique, quelque 22 millions d'euros de chiffre d'affaires et plus de 260 collaborateurs répartis sur tout le territoire. Résolument tourné vers la recherche, le groupe investit également énormément dans ses pôles Recherche et Développement. En effet, pour 20 millions € de chiffre d'affaires généré, HUNIK réinjecte un peu plus de 5 % du CA réinvesti dans la R&D chaque année.
Ce management des ressources, à hauteur des ambitions d'Access it et du groupe HUNIK, permet à l'institut Lillois de proposer un catalogue de plus de 900 formations à destination des particuliers et des entreprises. Pour découvrir un aperçu des formations proposées par Access it, n'hésitez pas à contacter leur offre plus en détails ci-après. Si vous cherchez une formation dans un domaine particulier de l'informatique, n'hésitez pas à contacter directement l'organisme à l'aide du formulaire de contact présent sur cette page.
Envie d’en savoir plus sur cette formation ?
Documentez-vous sur la formation
Bootcamp Data Analyst - formation certifiante RNCP
4500 €
DATA MANAGEMENT - formation certifiante à distance
1500 €
Power BI - comptabilite/gestion
Nous contacter
Devenir expert Power BI
2200 €
Maîtriser Google Analytics 4 pour piloter efficacement votre stratégie digitale
1200 €
Power BI : Analyser des données et créer des rapports + Analyse et Modélisation avec le langage DAX
2300 €