Detailed Course Outline
Expérimenter avec Azure Machine Learning
- Prétraiter les données et configurer la caractérisation
- Exécuter des expériences de machine learning automatisé (AutoML)
- Évaluer et comparer les modèles
- Suivre les modèles avec MLflow
- Utiliser le tableau de bord d’IA responsable pour évaluer les modèles
- Exercice : rechercher le meilleur modèle de classification
Optimisation des modèles et réglage des hyperparamètres
- Définir un espace de recherche
- Configurer des méthodes d’échantillonnage
- Mettre en place des stratégies d’arrêt anticipé
- Exécuter des tâches de réglage des hyperparamètres
- Exercice : exécuter un travail de balayage
Orchestration et automatisation avec Azure Machine Learning
- Créer des composants réutilisables
- Construire des pipelines de machine learning
- Exécuter et planifier des pipelines
- Automatiser les flux de travail ML
- Exercice : exécuter un pipeline
MLOps avec GitHub Actions
- Automatiser l’entraînement des modèles avec GitHub Actions
- Mettre en place des workflows basés sur les branches
- Utiliser des environnements pour tester et déployer
- Déployer des modèles avec Azure Machine Learning CLI
- Exercice : automatiser un workflow ML
Introduction au GenAIOps
- Identifier les cas d’usage de l’IA générative
- Sélectionner les modèles de langage adaptés
- Comprendre le cycle de vie des applications IA génératives
- Explorer les outils et infrastructures GenAIOps
- Exercice : comparer des modèles de langage
Gestion des agents et des prompts avec Microsoft Foundry
- Versionner les prompts avec GitHub
- Organiser les ressources IA dans des référentiels
- Mettre en place des workflows sécurisés de déploiement
- Développer des agents et leurs versions
- Exercice : créer et gérer des prompts et agents
Évaluation et optimisation des agents IA
- Définir des métriques de qualité, coût et performance
- Concevoir des scénarios d’évaluation
- Utiliser des workflows Git pour tester les agents
- Comparer différentes versions d’agents
- Exercice : évaluer et optimiser un agent IA
Automatisation des évaluations IA
- Mettre en place des évaluations automatisées
- Créer des jeux de données d’évaluation
- Exécuter des évaluations par lots
- Intégrer les évaluations dans GitHub Actions
- Exercice : automatiser les tests d’un agent IA
Supervision et monitoring des applications IA génératives
- Suivre les métriques clés (latence, consommation, performance)
- Mettre en place des outils de monitoring avec Azure
- Interpréter les résultats pour optimiser les coûts et performances
- Exercice : activer la supervision d’une application IA
Analyse et débogage avec le traçage
- Implémenter le traçage avec OpenTelemetry
- Suivre les flux d’exécution des applications IA
- Déboguer des workflows complexes
- Exploiter les données de trace pour optimiser les systèmes
- Exercice : activer le traçage d’une application IA générative