Objectifs
- Comprendre en profondeur le fonctionnement des modèles de langage (logique probabiliste, entraînement, rôle du RLHF, limites intrinsèques et notion d’incertitude)
- Distinguer modèles de langage et agents conversationnels, afin d’identifier les différentes couches (mémoire, outils, instructions, interface) et leurs impacts sur les usages
- Exploiter des techniques avancées d’enrichissement du contexte, incluant l’utilisation de documents, le RAG (Retrieval-Augmented Generation) et la gestion de sources externes
- Concevoir et personnaliser des assistants IA adaptés à des cas d’usage spécifiques (définition du rôle, du ton, des instructions et intégration de données métier)
- Comprendre et mobiliser l’écosystème des outils et APIs autour des agents conversationnels (outils internes, connexions externes, logique d’actions, protocole MCP, IA as a Service)
- Explorer des approches avancées d’usage et d’intégration des modèles de langage, incluant l’exécution de code, l’analyse multimodale (image, voix), l’IA agentique et l’utilisation de modèles en local
- Installer, configurer et exploiter des modèles de langage en local à l’aide d’outils comme LM Studio et Ollama, en comprenant les enjeux de performance (paramètres, quantization), de confidentialité et d’usage hors ligne
Contenu Formation
Dépasser le prompting : poser les bases d’une pratique avancée
Gagner en autonomie : écosystème et IA en local
Comprendre le fonctionnement interne des modèles
Étendre les capacités des IA avec outils et intégrations
Prérequis
Avoir une première expérience des IA conversationnelles (ainsi qu’un compte) et vouloir approfondir leur fonctionnement et leurs usages avancés.
Qualité de nos formations
Machine Learning Lab est certifié Qualiopi. En savoir plus
Connexion
L'accès à ce formation nécessite une connexion. Veuillez saisir vos identifiants ci-dessous !