Les modèles de langage massifs (Large Language Models – LLMs), tels que ChatGPT, GPT, LLaMA ou BERT, marquent une rupture majeure dans l’histoire de l’intelligence artificielle. Capables de traiter d’immenses volumes de données textuelles, ces modèles ouvrent la voie à de nouveaux usages à forte valeur ajoutée pour les entreprises et les organisations.
Cette formation IA générative dédiée aux LLMs a pour objectif d’apporter une compréhension approfondie des mécanismes, des architectures et des écosystèmes des modèles de langage massifs. Elle permet également d’aborder concrètement leur personnalisation, leur enrichissement, leur déploiement et leur intégration dans des projets réels, grâce à des ateliers pratiques et des cas d’usage concrets.
Objectifs de la formation IA Générative et LLMs
À l’issue de cette formation, les participants seront capables de :
- Comprendre le rôle stratégique des LLMs dans l’IA générative.
- Maîtriser les principes de fonctionnement des modèles de langage massifs.
- Identifier et sélectionner le LLM le plus adapté à un cas d’usage donné.
- Exploiter les techniques de Prompt Engineering et de fine-tuning.
- Concevoir et développer des projets innovants basés sur les LLMs.
- Comprendre les enjeux de mise en œuvre, d’industrialisation et de déploiement des LLMs.
Public cible et prérequis
À qui s’adresse cette formation ?
- Chefs de projets data et IA
- Développeurs
- Data scientists et ingénieurs IA
- Architectes techniques et profils R&D
Prérequis
- Connaissances de base en Machine Learning et Deep Learning.
- La maîtrise d’un langage de script (Python recommandé) est conseillée.
Programme de la formation LLMs
1 – Introduction aux modèles de langage massifs
- Évolution des modèles de langage et changement de paradigme.
- Publications fondatrices et lois d’échelle.
- Évolution temporelle des LLMs et émergence de nouveaux écosystèmes.
- Personnalisation par prompts, enrichissement et réglage fin.
- Vers l’ère du post deep learning.
2 – Cas d’usage des LLMs
- Agents conversationnels et assistants virtuels.
- Génération et analyse de code, débogage.
- Analyse de sentiments et classification de textes.
- Synthèse de documents et de corpus.
- Traduction automatique et génération de contenu.
- LAB : Proof of Concept sur des cas concrets.
3 – Fondations techniques des LLMs
- Traitement automatique du langage naturel (TAL / NLP).
- Architecture des Transformers.
- Tokenisation, embeddings et encodage positionnel.
- Mécanismes d’attention multi-têtes.
- Encodeur, décodeur et processus d’entraînement des Transformers.
4 – Choisir et exploiter un LLM
- Critères de sélection d’un modèle de langage massif.
- Modèles à encodeur (BERT) et à décodeur (GPT).
- Panorama des modèles dérivés et open source.
- Course aux LLMs légers et optimisés (LLaMA).
- Écosystèmes clés : APIs fermées, Hugging Face, LangChain, MLflow.
- Atelier : prise en main des écosystèmes LLMs.
5 – Mise en œuvre et industrialisation
- Stratégies de déploiement : service, in-house ou hybride.
- Workflows d’entraînement et d’inférence.
- Évaluation des modèles et réglage des hyperparamètres.
- Déploiement et exploitation en production.
- MLOps appliqué aux LLMs.
- LAB : déploiement d’un LLM en environnement réel.
6 – Prompt Engineering avancé
- Paramétrage des LLMs et compréhension des tokens.
- Température, Top-K, Top-P et distributions probabilistes.
- Structure et composantes d’un prompt efficace.
- Few-shot, Zero-shot et Chain of Thought.
- Techniques avancées : ReAct Prompting.
- Atelier : Prompt Engineering sur cas concrets.
7 – LLMs augmentés et RAG
- Limites du prompt seul et enrichissement des modèles.
- Mémoire contextuelle et mécanismes de mémorisation.
- Retrieval Augmented Generation (RAG).
- Embeddings, bases de données vectorielles et recherche sémantique.
- Outils et frameworks de l’écosystème LangChain.
- Atelier : création d’un agent conversationnel enrichi.
8 – Fine-tuning et déploiement avancé
- Quand et pourquoi ajuster un LLM.
- Fine-tuning supervisé et RLHF.
- Méthodes PEFT : LoRA et QLoRA.
- Mise en service d’un LLM : endpoints et monitoring.
- Atelier : réglage fin et mise en production d’un LLM.
Pourquoi choisir cette formation IA Générative chez Gust Training ?
- Formation avancée, technique et orientée entreprise.
- Approche complète : théorie, pratiques et ateliers.
- Cas d’usage concrets adaptés aux enjeux business et industriels.
- Encadrement par des experts en IA, data et architectures LLMs.
- Formation adaptée aux professionnels et entreprises B2B.
Inscription à la formation
Maîtrisez les modèles de langage massifs et exploitez pleinement le potentiel de l’IA générative dans vos projets innovants.
Contactez-nous pour planifier votre session de formation.
