ACCESS IT

Formation Microsoft Fabric

ACCESS IT

Non finançable CPF
Entreprise
En ligne
Public admis
Salarié en poste
Demandeur d'emploi
Entreprise
Étudiant
Prix
2980 €
Durée
5 jours 35h
Pré-requis

Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin.

Certifications
Datadock Qualiopi
Le plus de la formation
Cours individuel et personnalisé à distance. Possibilité d'enregistrer la séance
Localité
En ligne
Vous pouvez suivre cette formation depuis chez vous ou depuis n’importe quel endroit à distance.
En savoir plus sur les localités en présentiel
Objectifs

A l'issue de la formation le participant sera capable de :
comprendre l’architecture et les composants de Microsoft Fabric (Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator),
construire des flux de données, transformer des données, déployer via CI/CD et réaliser un projet complet de bout en bout.

Programme

Jour 1 – Découvrir Microsoft Fabric et comprendre ses fondations
Module 1 – Bien démarrer avec Microsoft Fabric
Introduction à l’analytique de bout en bout à l’aide de Microsoft Fabric
 Comprendre la vision analytique unifiée de Microsoft Fabric
 Explorer le concept de plateforme « tout-en-un » pour la donnée
 Découvrir les composants principaux : Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator
Équipes de données et Microsoft Fabric
 Identifier les rôles dans un projet Fabric (ingénieur, analyste, data scientist)
 Collaboration dans les espaces de travail
Activer et utiliser Microsoft Fabric
 Activation et navigation dans Microsoft Fabric depuis Power BI Service
 Création d’un espace de travail Fabric
 Comprendre les licences et capacités
Bien démarrer avec les Lakehouses dans Microsoft Fabric
 Introduction au concept de Lakehouse
 Comparaison avec Data Lake et entrepôt de données
 Structure et composants : fichiers, tables, notebooks, pipelines
Explorer le Lakehouse Microsoft Fabric
 Découverte de l’interface du Lakehouse
 Ingestion simple d’un fi chier (CSV/Excel)
 Visualisation des données importées
Exercice – Créer et ingérer des données avec un Lakehouse Microsoft Fabric
 Créer un Lakehouse
 Charger des données locales
 Explorer les données via l’interface

Jour 2 – Manipuler et transformer des données avec Spark
Module 2 – Utiliser Apache Spark dans Microsoft Fabric
Se préparer à l’utilisation d’Apache Spark
 Comprendre le rôle de Spark dans Fabric
 Découvrir les notebooks Spark : cellules, exécution, résultats
 Comprendre l’intérêt du traitement distribué
Exécuter du code Spark (sans Python requis)
 Manipuler des données via l’interface graphique
 Introduction simplifiée aux DataFrames (concept et structure tabulaire)
Utiliser des données dans un DataFrame Spark
 Charger un fichier dans un DataFrame
 Effectuer des opérations simples : filtrer, regrouper, agréger
Utiliser des données à l’aide de Spark SQL
 Comprendre Spark SQL
 Écrire des requêtes SQL pour transformer les données
 Créer des vues temporaires
Visualiser des données dans un notebook Spark
 Créer des visualisations simples (barres, lignes, histogrammes)
Exercice – Analyser des données avec Apache Spark
 Charger des données dans un notebook
 Réaliser quelques requêtes Spark SQL
 Générer une visualisation de base

Jour 3 – Travailler avec Delta Lake et orchestrer les flux de données
Comprendre Delta Lake
 Présentation du format Delta et de ses avantages
 Gestion des versions et transactions ACID
Créer et manipuler des tables Delta
 Créer une table Delta depuis un DataFrame ou Spark SQL
 Lire et mettre à jour des données
Survol – Streaming avec Delta Lake
 Introduction conceptuelle (sans pratique)
Exercice – Utiliser des tables Delta dans Apache Spark
 Créer une table Delta
 Interroger les données via Spark SQL

Module 4 – Utiliser des pipelines Data Factory dans Microsoft Fabric
Comprendre les pipelines
 Présentation du service Data Factory dans Fabric
 Notions : pipeline, activité, connecteur, exécution
Utiliser l’activité Copier des données
 Copier des données depuis une source (CSV, base SQL, API, etc.)
 Définir les paramètres source et destination
Utiliser des modèles de pipeline
 Découvrir les modèles prédéfinis pour ingestion rapide
Exécuter et superviser des pipelines
 Lancer un pipeline
 Suivre les exécutions et logs
Exercice – Ingérer des données avec un pipeline
 Créer un pipeline simple
 Copier des données dans un Lakehouse
 Vérifier le résultat dans le workspace

Jour 4 – Construire un entrepôt de données et découvrir les usages temps réel
Module 5 – Implémenter un entrepôt de données avec Microsoft Fabric
Comprendre les principes de base d’un entrepôt de données
 Notions de tables de faits et de dimensions
 Rôle du Data Warehouse dans Fabric
Comprendre les entrepôts de données dans Fabric
 Création et exploration d’un entrepôt de données
 Tables, vues et schémas
Interroger et transformer des données
 Utiliser l’éditeur SQL intégré
 Requêtes analytiques simples
Sécuriser et monitorer un entrepôt de données
 Découverte du masquage dynamique des données
 Sécurité au niveau des lignes et colonnes
Exercice – Analyser et sécuriser des données dans un entrepôt
 Créer un entrepôt Fabric
 Charger des données et exécuter des requêtes
 Appliquer une règle de sécurité simple

Module 6 – Bien démarrer avec Real-Time Intelligence et Data Activator
Décrire Real-Time Intelligence de Microsoft Fabric
 Comprendre le traitement temps réel
 Présentation du hub temps réel
Comprendre les tables et requêtes KQL
 Découverte du langage Kusto (KQL)
 Écrire quelques requêtes simples sur des données simulées
Comprendre Data Activator
 Principe des déclencheurs, conditions et actions
 Cas d’usage : surveillance et automatisation
Exercice : utiliser Data Activator dans Fabric
 Créer un déclencheur sur une source de données
 Définir une action automatique

Jour 5 – Automatiser et déployer avec Azure DevOps + projet fi nal
Module 7 – Intégrer le CI/CD avec Azure DevOps
Comprendre le besoin de CI/CD dans Fabric
 Importance de l’automatisation et du versionnement
 Intégration continue et déploiement continu (principes de base)
Introduction à Azure DevOps
 Présentation des services : Repos, Pipelines, Boards, Artifacts
 Créer un projet Azure DevOps
Connecter Fabric à Azure DevOps
 Gérer le code source des notebooks, pipelines et entrepôts
 Déployer automatiquement les artefacts Fabric
Mettre en place un pipeline CI/CD simple
 Créer un pipeline YAML
 Exécuter un déploiement Fabric automatisé
Exercice : Automatiser un déploiement Fabric avec Azure DevOps
 Créer un pipeline d’intégration continue
 Déployer une mise à jour de Lakehouse

Module 8 – Atelier de synthèse (Projet de fin de formation)
Objectif :
Mettre en oeuvre l’ensemble du parcours de bout en bout.
Étapes :
1. Créer un Lakehouse et ingérer un jeu de données réel
2. Transformer et stocker les données dans Delta Lake
3. Orchestrer le chargement avec un pipeline Data Factory
4. Déployer automatiquement avec Azure DevOps
5. Tester la supervision avec Data Activator
Présentation finale :
Chaque participant présente son mini-projet Fabric.

30 années

d'expertise

Sessions garanties

chaque mois

Plus de 96 %

des apprenants satisfaits

Centre

À propos du centre ACCESS IT

Access it est un organisme de formation français, basé à Villeneuve d'Ascq, dans la métropole Lilloise. Formé en 1993, il s'est ancré dans le paysage professionnel des Hauts-de-France et accompagne de nombreuses entreprises sur toute la France. Access it se spécialise dans les systèmes d'informations et les outils numériques et propose de nombreuses formations dans un large spectre d'actions, tels que les outils collaboratifs, le développement, l'informatique décisionnelle ou encore le Web marketing et le Digital Learning. 

Access it : l'ambition de réinventer les méthodes de travail et développer le numérique
Face à une dépendance toujours plus importante des entreprises aux outils numériques, le monde du travail se retrouve face à un changement structurel d'une ampleur sans précédent. Outils collaboratifs, télétravail, réunions à distance, ... les possibilités offertes par le numérique représentent des opportunités d'un nouveau genre pour le monde professionnel. Mais, les entreprises, parfois trop peu sensibilisées à ces nouveaux sujets, se retrouvent submergées par des situations auxquelles elles ne sont pas préparées.
Afin d'aider les entreprises face à ces nouveaux enjeux, Access it se meut comme le pivot qui doit permettre aux entreprises de réussir leur virage vers la numérisation de leurs outils. À travers la formation et l'accompagnement, l'institut de formation Lillois aide les entreprises à naviguer dans cette "révolution mondiale de l’environnement de travail". À terme, comme l'explique Access it dans son manifeste, leur aspiration est de réinventer les méthodes de travail en facilitant la collaboration, les échanges et le partage. Une mission de taille, mais d'une importance capitale selon l'institut, où la formation représente une place centrale du processus de réussite.

Une reconnaissance nationale et internationale dans la qualité des formations proposées
Fort de la qualité de ses formations, Access it est récompensé par un partenariat Microsoft Gold, qui vient récompenser tout le travail fourni par l'organisme en matière de formation. L'institut Lillois possède ainsi le plus haut niveau de certification en Développement d’Application, Collaboration et Contenu, Productivité cloud et Plateforme cloud.
À l'échelle nationale, Access it fait partie du groupe HUNIK, un regroupement de cinq sociétés spécialisées dans l'ingénierie informatique, dans l'optique d'accélérer son développement et répondre à toujours plus de besoins à l'échelle de l'hexagone, notamment sur son offre de formation. En chiffres, le groupe HUNIK et Access it représentent plus de 30 ans d'expériences dans le domaine de l'informatique, quelque 22 millions d'euros de chiffre d'affaires et plus de 260 collaborateurs répartis sur tout le territoire. Résolument tourné vers la recherche, le groupe investit également énormément dans ses pôles Recherche et Développement. En effet, pour 20 millions € de chiffre d'affaires généré, HUNIK réinjecte un peu plus de 5 % du CA réinvesti dans la R&D chaque année.

Ce management des ressources, à hauteur des ambitions d'Access it et du groupe HUNIK, permet à l'institut Lillois de proposer un catalogue de plus de 900 formations à destination des particuliers et des entreprises. Pour découvrir un aperçu des formations proposées par Access it, n'hésitez pas à contacter leur offre plus en détails ci-après. Si vous cherchez une formation dans un domaine particulier de l'informatique, n'hésitez pas à contacter directement l'organisme à l'aide du formulaire de contact présent sur cette page.

Envie d’en savoir plus sur cette formation ?

Documentez-vous sur la formation

Certification Datadock
Certification Qualiopi

Quelle est votre situation ?

Haut de page