Introduction a LangChain
LBKE
Les objectifs détaillés sont :
- Développer un pipeline d'inférence LLM avec LangChain et son langage LCEL ;
- Développer un pipeline RAG (Retrieval-Assisted Generation) pour mobiliser des documentations lors de l'inférence ;
- Comprendre la rupture dans le domaine de l'apprentissage automatique induite par les LLM ;
- Comprendre l'intérêt d'un pipeline RAG par rapport à un usage direct des grands modèles de langage ;
La formation se découpe en deux temps. Nous découvrirons tout d'abord l'intérêt de mobiliser un framework tel que LangChain pour utiliser efficacement un LLM. Nous mettrons ensuite en place un pattern très important pour obtenir des réponses plus fiables et limiter les hallucinations : la Retrieval-Assisted Generation (RAG).
- Définition des grands modèles de langage et de leurs usages: qu'est-ce qu'un modèle de fondation ?
- Découverte de l'écosystème LangChain
- Familiarisation avec l'environnement de développement : notebooks, Google Colab.
- Un premier pipeline d'inférence avec LangChain: création d'un prompt, exécution du modèle, structuration des résultats
- Introduction au principe de la vectorisation (embedding) et de la recherche sémantique
- Ingérer et rechercher des documents avec LangChain
- Construction d'un pipeline RAG de bout-en-bout
- Observer le bon fonctionnement de son modèle avec LangSmith
- Ouverture : agent et mémoire
Mini-projet
Nous allons construire étape par étape à l'aide du framework LangChain un algorithme qui répond à des questions techniques complexes, en s'appuyant sur une documentation à jour grâce au principe des architectures RAG.
Nous l'utiliserons pour fournir la documentation de LangChain à un LLM et générer des programmes LangChain... grâce à LangChain.
Envie d’en savoir plus sur cette formation ?
Documentez-vous sur la formation
