
Formation Microsoft Fabric
ACCESS IT
Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin.
A l'issue de la formation le participant sera capable de :
comprendre l’architecture et les composants de Microsoft Fabric (Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator),
construire des flux de données, transformer des données, déployer via CI/CD et réaliser un projet complet de bout en bout.
Jour 1 – Découvrir Microsoft Fabric et comprendre ses fondations
Module 1 – Bien démarrer avec Microsoft Fabric
Introduction à l’analytique de bout en bout à l’aide de Microsoft Fabric
? Comprendre la vision analytique unifiée de Microsoft Fabric
? Explorer le concept de plateforme « tout-en-un » pour la donnée
? Découvrir les composants principaux : Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator
Équipes de données et Microsoft Fabric
? Identifier les rôles dans un projet Fabric (ingénieur, analyste, data scientist)
? Collaboration dans les espaces de travail
Activer et utiliser Microsoft Fabric
? Activation et navigation dans Microsoft Fabric depuis Power BI Service
? Création d’un espace de travail Fabric
? Comprendre les licences et capacités
Bien démarrer avec les Lakehouses dans Microsoft Fabric
? Introduction au concept de Lakehouse
? Comparaison avec Data Lake et entrepôt de données
? Structure et composants : fichiers, tables, notebooks, pipelines
Explorer le Lakehouse Microsoft Fabric
? Découverte de l’interface du Lakehouse
? Ingestion simple d’un fi chier (CSV/Excel)
? Visualisation des données importées
Exercice – Créer et ingérer des données avec un Lakehouse Microsoft Fabric
? Créer un Lakehouse
? Charger des données locales
? Explorer les données via l’interface
Jour 2 – Manipuler et transformer des données avec Spark
Module 2 – Utiliser Apache Spark dans Microsoft Fabric
Se préparer à l’utilisation d’Apache Spark
? Comprendre le rôle de Spark dans Fabric
? Découvrir les notebooks Spark : cellules, exécution, résultats
? Comprendre l’intérêt du traitement distribué
Exécuter du code Spark (sans Python requis)
? Manipuler des données via l’interface graphique
? Introduction simplifiée aux DataFrames (concept et structure tabulaire)
Utiliser des données dans un DataFrame Spark
? Charger un fichier dans un DataFrame
? Effectuer des opérations simples : filtrer, regrouper, agréger
Utiliser des données à l’aide de Spark SQL
? Comprendre Spark SQL
? Écrire des requêtes SQL pour transformer les données
? Créer des vues temporaires
Visualiser des données dans un notebook Spark
? Créer des visualisations simples (barres, lignes, histogrammes)
Exercice – Analyser des données avec Apache Spark
? Charger des données dans un notebook
? Réaliser quelques requêtes Spark SQL
? Générer une visualisation de base
Jour 3 – Travailler avec Delta Lake et orchestrer les flux de données
Comprendre Delta Lake
? Présentation du format Delta et de ses avantages
? Gestion des versions et transactions ACID
Créer et manipuler des tables Delta
? Créer une table Delta depuis un DataFrame ou Spark SQL
? Lire et mettre à jour des données
Survol – Streaming avec Delta Lake
? Introduction conceptuelle (sans pratique)
Exercice – Utiliser des tables Delta dans Apache Spark
? Créer une table Delta
? Interroger les données via Spark SQL
Module 4 – Utiliser des pipelines Data Factory dans Microsoft Fabric
Comprendre les pipelines
? Présentation du service Data Factory dans Fabric
? Notions : pipeline, activité, connecteur, exécution
Utiliser l’activité Copier des données
? Copier des données depuis une source (CSV, base SQL, API, etc.)
? Définir les paramètres source et destination
Utiliser des modèles de pipeline
? Découvrir les modèles prédéfinis pour ingestion rapide
Exécuter et superviser des pipelines
? Lancer un pipeline
? Suivre les exécutions et logs
Exercice – Ingérer des données avec un pipeline
? Créer un pipeline simple
? Copier des données dans un Lakehouse
? Vérifier le résultat dans le workspace
Jour 4 – Construire un entrepôt de données et découvrir les usages temps réel
Module 5 – Implémenter un entrepôt de données avec Microsoft Fabric
Comprendre les principes de base d’un entrepôt de données
? Notions de tables de faits et de dimensions
? Rôle du Data Warehouse dans Fabric
Comprendre les entrepôts de données dans Fabric
? Création et exploration d’un entrepôt de données
? Tables, vues et schémas
Interroger et transformer des données
? Utiliser l’éditeur SQL intégré
? Requêtes analytiques simples
Sécuriser et monitorer un entrepôt de données
? Découverte du masquage dynamique des données
? Sécurité au niveau des lignes et colonnes
Exercice – Analyser et sécuriser des données dans un entrepôt
? Créer un entrepôt Fabric
? Charger des données et exécuter des requêtes
? Appliquer une règle de sécurité simple
Module 6 – Bien démarrer avec Real-Time Intelligence et Data Activator
Décrire Real-Time Intelligence de Microsoft Fabric
? Comprendre le traitement temps réel
? Présentation du hub temps réel
Comprendre les tables et requêtes KQL
? Découverte du langage Kusto (KQL)
? Écrire quelques requêtes simples sur des données simulées
Comprendre Data Activator
? Principe des déclencheurs, conditions et actions
? Cas d’usage : surveillance et automatisation
Exercice : utiliser Data Activator dans Fabric
? Créer un déclencheur sur une source de données
? Définir une action automatique
Jour 5 – Automatiser et déployer avec Azure DevOps + projet fi nal
Module 7 – Intégrer le CI/CD avec Azure DevOps
Comprendre le besoin de CI/CD dans Fabric
? Importance de l’automatisation et du versionnement
? Intégration continue et déploiement continu (principes de base)
Introduction à Azure DevOps
? Présentation des services : Repos, Pipelines, Boards, Artifacts
? Créer un projet Azure DevOps
Connecter Fabric à Azure DevOps
? Gérer le code source des notebooks, pipelines et entrepôts
? Déployer automatiquement les artefacts Fabric
Mettre en place un pipeline CI/CD simple
? Créer un pipeline YAML
? Exécuter un déploiement Fabric automatisé
Exercice : Automatiser un déploiement Fabric avec Azure DevOps
? Créer un pipeline d’intégration continue
? Déployer une mise à jour de Lakehouse
Module 8 – Atelier de synthèse (Projet de fin de formation)
Objectif :
Mettre en oeuvre l’ensemble du parcours de bout en bout.
Étapes :
1. Créer un Lakehouse et ingérer un jeu de données réel
2. Transformer et stocker les données dans Delta Lake
3. Orchestrer le chargement avec un pipeline Data Factory
4. Déployer automatiquement avec Azure DevOps
5. Tester la supervision avec Data Activator
Présentation finale :
Chaque participant présente son mini-projet Fabric.
30 années
d'expertise
Sessions garanties
chaque mois
Plus de 96 %
des apprenants satisfaits
À propos du centre ACCESS IT
Access it : l'ambition de réinventer les méthodes de travail et développer le numérique
Face à une dépendance toujours plus importante des entreprises aux outils numériques, le monde du travail se retrouve face à un changement structurel d'une ampleur sans précédent. Outils collaboratifs, télétravail, réunions à distance, ... les possibilités offertes par le numérique représentent des opportunités d'un nouveau genre pour le monde professionnel. Mais, les entreprises, parfois trop peu sensibilisées à ces nouveaux sujets, se retrouvent submergées par des situations auxquelles elles ne sont pas préparées.
Afin d'aider les entreprises face à ces nouveaux enjeux, Access it se meut comme le pivot qui doit permettre aux entreprises de réussir leur virage vers la numérisation de leurs outils. À travers la formation et l'accompagnement, l'institut de formation Lillois aide les entreprises à naviguer dans cette "révolution mondiale de l’environnement de travail". À terme, comme l'explique Access it dans son manifeste, leur aspiration est de réinventer les méthodes de travail en facilitant la collaboration, les échanges et le partage. Une mission de taille, mais d'une importance capitale selon l'institut, où la formation représente une place centrale du processus de réussite.
Une reconnaissance nationale et internationale dans la qualité des formations proposées
Fort de la qualité de ses formations, Access it est récompensé par un partenariat Microsoft Gold, qui vient récompenser tout le travail fourni par l'organisme en matière de formation. L'institut Lillois possède ainsi le plus haut niveau de certification en Développement d’Application, Collaboration et Contenu, Productivité cloud et Plateforme cloud.
À l'échelle nationale, Access it fait partie du groupe HUNIK, un regroupement de cinq sociétés spécialisées dans l'ingénierie informatique, dans l'optique d'accélérer son développement et répondre à toujours plus de besoins à l'échelle de l'hexagone, notamment sur son offre de formation. En chiffres, le groupe HUNIK et Access it représentent plus de 30 ans d'expériences dans le domaine de l'informatique, quelque 22 millions d'euros de chiffre d'affaires et plus de 260 collaborateurs répartis sur tout le territoire. Résolument tourné vers la recherche, le groupe investit également énormément dans ses pôles Recherche et Développement. En effet, pour 20 millions € de chiffre d'affaires généré, HUNIK réinjecte un peu plus de 5 % du CA réinvesti dans la R&D chaque année.
Ce management des ressources, à hauteur des ambitions d'Access it et du groupe HUNIK, permet à l'institut Lillois de proposer un catalogue de plus de 900 formations à destination des particuliers et des entreprises. Pour découvrir un aperçu des formations proposées par Access it, n'hésitez pas à contacter leur offre plus en détails ci-après. Si vous cherchez une formation dans un domaine particulier de l'informatique, n'hésitez pas à contacter directement l'organisme à l'aide du formulaire de contact présent sur cette page.
Envie d’en savoir plus sur cette formation ?
Documentez-vous sur la formation


DATA ANALYST | Titre RNCP niveau 7 Bac +5 | co-certifiée école MINES Paris

Bootcamp Data Analyst - formation certifiante RNCP

Formation au métier de Data Analyst (Power BI, SQL, certification TOSA incluse)

Formation Power BI débutant

BUSINESS ANALYST - formation certifiante à distance

Devenir Spécialiste Power BI
