LLM Engineer
Blent.AI
Non finançable CPF
Tout public
En ligne
Public admis
Salarié en poste
Demandeur d'emploi
Entreprise
Etudiant
Prix
Nous contacter
Durée
Nous contacter
Niveau visé
Non diplômante
Localité
En ligne
Vous pouvez suivre cette formation depuis chez vous ou depuis n’importe quel endroit à distance.
Objectifs
? Maîtriser les fondamentaux avec les embeddings et les architectures Transformers
pour les LLM.
? Adapter les LLM avec des méthodes de fine-tuning sur GPU et adapter le prompting
à différents cas d'usage.
? Mettre en place des techniques de Retrieval Augmented Generation (RAG) et
optimiser les modèles de langage avec la quantization.
? Construire des architectures de flux avec LangChain et intégrer avec des outils et
API tierces.
? Protéger les modèles contre les attaques de jailbreaking et utiliser une stratégie d'AI
Gouvernance.
pour les LLM.
? Adapter les LLM avec des méthodes de fine-tuning sur GPU et adapter le prompting
à différents cas d'usage.
? Mettre en place des techniques de Retrieval Augmented Generation (RAG) et
optimiser les modèles de langage avec la quantization.
? Construire des architectures de flux avec LangChain et intégrer avec des outils et
API tierces.
? Protéger les modèles contre les attaques de jailbreaking et utiliser une stratégie d'AI
Gouvernance.
Programme
1. Cycle de vie d'un projet d'IA Générative
1.1 Maîtriser les différentes étapes du cycle de vie d'un projet d'IA
Générative.
1.2 Utiliser les principales techniques de prompting avec des LLM.
1.3 Comprendre les enjeux liés à l'utilisation des techniques de RAG et
de fine-tuning.
1.4 Proposer des critères d'évaluation pour mesurer la qualité des
réponses générées.
1.5 Identifier les risques liés aux réponses d'un LLM et à son
utilisation malveillante.
2. Embedding et LLM
2.1 Maîtriser l'architecture des modèles de séquence (Seq2Seq) et des
Transformers.
2.2 Comprendre le fonctionnement des embeddings et leurs
algorithmes de conversion en mots.
2.3 Stocker des embeddings en mémoire ou dans des bases de
données vectorielles.
2.4 Exécuter un LLM pré-entraîné (Mistral et Llama) en local ou sur
un GPU avec HuggingFace.
3. Retrieval Augmented Generation
3.1 Construire des pipelines d'entraînement et d'inférence avec
LangChain.
3.2 Personnaliser un LLM pré-entraîné avec des méthodes de
fine-tuning
3.3 Créer des embeddings adaptés à partir d'une base de
connaissance spécifique.
3.4 Utiliser un framework de pipelines de LLM pour construire des
RAG.
4. Intégration de services et API tierces
4.1 Intégrer un LLM avec des applications tierces (Excel, Google
Search).
4.2 Formuler des requêtes sur une base de données SQL à partir de
demandes en langage naturel.
4.3 Utiliser des API tierces pour permettre à un LLM d'effectuer des
actions automatisée.
4.4 Construire un agent conversationnel avec une gestion de la
mémoire et des applications intégrées.
5. Automatisation et déploiement d'applications
5.1 Réaliser une infrastructure permettant d'exécuter un LLM à
grande échelle.
5.2 Utiliser des outils de mise en production et de suivi de LLM.
5.3 Créer des interfaces graphiques pour envoyer des requêtes à un
LLM.
5.4 Construire des systèmes contrôles d'utilisations malveillantes.
1.1 Maîtriser les différentes étapes du cycle de vie d'un projet d'IA
Générative.
1.2 Utiliser les principales techniques de prompting avec des LLM.
1.3 Comprendre les enjeux liés à l'utilisation des techniques de RAG et
de fine-tuning.
1.4 Proposer des critères d'évaluation pour mesurer la qualité des
réponses générées.
1.5 Identifier les risques liés aux réponses d'un LLM et à son
utilisation malveillante.
2. Embedding et LLM
2.1 Maîtriser l'architecture des modèles de séquence (Seq2Seq) et des
Transformers.
2.2 Comprendre le fonctionnement des embeddings et leurs
algorithmes de conversion en mots.
2.3 Stocker des embeddings en mémoire ou dans des bases de
données vectorielles.
2.4 Exécuter un LLM pré-entraîné (Mistral et Llama) en local ou sur
un GPU avec HuggingFace.
3. Retrieval Augmented Generation
3.1 Construire des pipelines d'entraînement et d'inférence avec
LangChain.
3.2 Personnaliser un LLM pré-entraîné avec des méthodes de
fine-tuning
3.3 Créer des embeddings adaptés à partir d'une base de
connaissance spécifique.
3.4 Utiliser un framework de pipelines de LLM pour construire des
RAG.
4. Intégration de services et API tierces
4.1 Intégrer un LLM avec des applications tierces (Excel, Google
Search).
4.2 Formuler des requêtes sur une base de données SQL à partir de
demandes en langage naturel.
4.3 Utiliser des API tierces pour permettre à un LLM d'effectuer des
actions automatisée.
4.4 Construire un agent conversationnel avec une gestion de la
mémoire et des applications intégrées.
5. Automatisation et déploiement d'applications
5.1 Réaliser une infrastructure permettant d'exécuter un LLM à
grande échelle.
5.2 Utiliser des outils de mise en production et de suivi de LLM.
5.3 Créer des interfaces graphiques pour envoyer des requêtes à un
LLM.
5.4 Construire des systèmes contrôles d'utilisations malveillantes.
Envie d’en savoir plus sur cette formation ?
Documentez-vous sur la formation
Ces formations peuvent vous intéresser

Executive Certificate IA et Communication : Décuplez votre créativité...
NANTES, SAINT-OUEN-SUR-SEINE
Les formations les plus recherchées
Lyon
Toulouse
Marseille
Montpellier
Paris
Bordeaux
Dijon
Mâcon
Nantes
Rennes
Informatique CPF
Informatique en Ligne
Intelligence artificielle
Intelligence artificielle CPF
Intelligence artificielle en Ligne
Machine learning
Vba
Technicien informatique
Technicien support informatique
Administrateur systeme
Consultant en informatique
Growth hacking
Spark
Programmation
Developpeur informatique
Intelligence artificielle Paris
Machine learning Paris
Machine learning Nanterre
Intelligence artificielle Nanterre
Intelligence artificielle Créteil
Machine learning Créteil
Machine learning Issy-les-Moulineaux
Intelligence artificielle Issy-les-Moulineaux
Intelligence artificielle La Défense
Machine learning La Défense