Spark Python
Human Coders
Non finançable CPF
Tout public
En ligne
Public admis
Salarié en poste
Demandeur d'emploi
Entreprise
Etudiant
Prix
2640 €
Durée
Nous contacter
Localité
En ligne
Vous pouvez suivre cette formation depuis chez vous ou depuis n’importe quel endroit à distance.
Objectifs
- Comprendre les concepts fondamentaux de Spark et du calcul distribué
- Manipuler et analyser des dataframes
- Effectuer de l'analyse temps réel avec Spark Streaming
- Effectuer du machine learning avec Spark MLlib
- Déployer une application Spark
- Manipuler et analyser des dataframes
- Effectuer de l'analyse temps réel avec Spark Streaming
- Effectuer du machine learning avec Spark MLlib
- Déployer une application Spark
Programme
####Jour 1 : Découverte de Spark, premières opérations
- Comprendre dans quels cas utiliser et ne pas utiliser Spark
- Appréhender le fonctionnement global de Spark et du calcul distribué
- Découvrir le principe de lazy evaluation
- Utiliser les transformations de base : `map`, `flatmap`, `filter`, `groupby`, `join`
- Connaître les actions de base : `save`, `collect`, `count`, `show`
- Lire, transformer et sauvegarder des dataframes en mode batch
***Mises en pratique*** :
- *Configurer un environnement de développement big data*
- *Analyser des données de transport aérien avec les fonctions de base Spark*
####Jour 2 : Spark streaming
- Découvrir les cas d'application de traitements temps réel
- Transposer les principes des opération batch au traitement de données en temps réel (streaming)
- Transformer des données avec une latence faible (~1 seconde)
- Gérer les cas spécifiques aux cas d'usage en temps réel :
- Late data
- Triggers
- Agrégation par fenêtre
***Mises en pratique*** :
- *Créer un flux de données streaming*
- *Traiter des données IoT (internet of things) d'un capteur d'ouverture/fermeture de porte, et des données financières d'achat et vente d'action en temps réel*
- *Sauvegarder des données dans AWS*
####Jour 3 : Optimisation, déploiement et Spark ML
- Optimisation, déploiement et Spark ML
- Optimiser des jobs Spark grâce à des bonnes pratiques
- Économiser des coûts de ressources en évitant les anti-patterns
- Comprendre l'utilité de Spark dans l'intelligence artificielle
- Utiliser les fonctions machine learning de Spark (Spark MLlib) :
- `Estimator`
- `Transformer`
- `Pipeline`
- Les différentes approches pour déployer une application Spark
***Mises en pratique*** :
- *Développer une pipeline de machine learning pour prédire la survie des passagers du Titanic*
- *Prédire le churn de clients d'une entreprise*
- *Déployer une application Spark sur AWS*
- Comprendre dans quels cas utiliser et ne pas utiliser Spark
- Appréhender le fonctionnement global de Spark et du calcul distribué
- Découvrir le principe de lazy evaluation
- Utiliser les transformations de base : `map`, `flatmap`, `filter`, `groupby`, `join`
- Connaître les actions de base : `save`, `collect`, `count`, `show`
- Lire, transformer et sauvegarder des dataframes en mode batch
***Mises en pratique*** :
- *Configurer un environnement de développement big data*
- *Analyser des données de transport aérien avec les fonctions de base Spark*
####Jour 2 : Spark streaming
- Découvrir les cas d'application de traitements temps réel
- Transposer les principes des opération batch au traitement de données en temps réel (streaming)
- Transformer des données avec une latence faible (~1 seconde)
- Gérer les cas spécifiques aux cas d'usage en temps réel :
- Late data
- Triggers
- Agrégation par fenêtre
***Mises en pratique*** :
- *Créer un flux de données streaming*
- *Traiter des données IoT (internet of things) d'un capteur d'ouverture/fermeture de porte, et des données financières d'achat et vente d'action en temps réel*
- *Sauvegarder des données dans AWS*
####Jour 3 : Optimisation, déploiement et Spark ML
- Optimisation, déploiement et Spark ML
- Optimiser des jobs Spark grâce à des bonnes pratiques
- Économiser des coûts de ressources en évitant les anti-patterns
- Comprendre l'utilité de Spark dans l'intelligence artificielle
- Utiliser les fonctions machine learning de Spark (Spark MLlib) :
- `Estimator`
- `Transformer`
- `Pipeline`
- Les différentes approches pour déployer une application Spark
***Mises en pratique*** :
- *Développer une pipeline de machine learning pour prédire la survie des passagers du Titanic*
- *Prédire le churn de clients d'une entreprise*
- *Déployer une application Spark sur AWS*
Envie d’en savoir plus sur cette formation ?
Documentez-vous sur la formation
Ces formations peuvent vous intéresser
Création de site internet avec Wordpress - avec coaching renforcé
À DISTANCE

Finançable CPF
À distance
Salarié en poste / Demandeur d'emploi / Entreprise
Créer un Site Web avec PrestaShop
VILLENEUVE-D'ASCQ

Finançable CPF
À distance / En centre / En entreprise
Salarié en poste / Demandeur d'emploi / Entreprise
Créez vos premiers sites web avec l’IA
À DISTANCE

Finançable CPF
À distance
Salarié en poste / Demandeur d'emploi / Entreprise
Ecole Européenne du Numérique
Les formations les plus recherchées
Paris
Lyon
Toulouse
Marseille
Montpellier
Bordeaux
Dijon
Mâcon
Nantes
Rennes
Informatique CPF
Informatique en Ligne
Programmation
Programmation CPF
Programmation en Ligne
Developpeur web
Creation site internet
Webmaster
Integrateur web
Technicien informatique
Technicien support informatique
Administrateur systeme
Consultant en informatique
Spark
Technicien reseaux
Creation site internet Mantes-la-Jolie
Integrateur web Goussainville
Developpeur web Mantes-la-Jolie
Programmation Mantes-la-Jolie
Webmaster Goussainville
Webmaster Villiers-le-Bel
Programmation Mantes-la-Ville
Developpeur web Mantes-la-Ville
Integrateur web Villiers-le-Bel
Creation site internet Mantes-la-Ville