Operationalize machine learning and generative AI solutions (AI-300T00) – Outline

Detailed Course Outline

Expérimenter avec Azure Machine Learning
  • Prétraiter les données et configurer la caractérisation
  • Exécuter des expériences de machine learning automatisé (AutoML)
  • Évaluer et comparer les modèles
  • Suivre les modèles avec MLflow
  • Utiliser le tableau de bord d’IA responsable pour évaluer les modèles
  • Exercice : rechercher le meilleur modèle de classification
Optimisation des modèles et réglage des hyperparamètres
  • Définir un espace de recherche
  • Configurer des méthodes d’échantillonnage
  • Mettre en place des stratégies d’arrêt anticipé
  • Exécuter des tâches de réglage des hyperparamètres
  • Exercice : exécuter un travail de balayage
Orchestration et automatisation avec Azure Machine Learning
  • Créer des composants réutilisables
  • Construire des pipelines de machine learning
  • Exécuter et planifier des pipelines
  • Automatiser les flux de travail ML
  • Exercice : exécuter un pipeline
MLOps avec GitHub Actions
  • Automatiser l’entraînement des modèles avec GitHub Actions
  • Mettre en place des workflows basés sur les branches
  • Utiliser des environnements pour tester et déployer
  • Déployer des modèles avec Azure Machine Learning CLI
  • Exercice : automatiser un workflow ML
Introduction au GenAIOps
  • Identifier les cas d’usage de l’IA générative
  • Sélectionner les modèles de langage adaptés
  • Comprendre le cycle de vie des applications IA génératives
  • Explorer les outils et infrastructures GenAIOps
  • Exercice : comparer des modèles de langage
Gestion des agents et des prompts avec Microsoft Foundry
  • Versionner les prompts avec GitHub
  • Organiser les ressources IA dans des référentiels
  • Mettre en place des workflows sécurisés de déploiement
  • Développer des agents et leurs versions
  • Exercice : créer et gérer des prompts et agents
Évaluation et optimisation des agents IA
  • Définir des métriques de qualité, coût et performance
  • Concevoir des scénarios d’évaluation
  • Utiliser des workflows Git pour tester les agents
  • Comparer différentes versions d’agents
  • Exercice : évaluer et optimiser un agent IA
Automatisation des évaluations IA
  • Mettre en place des évaluations automatisées
  • Créer des jeux de données d’évaluation
  • Exécuter des évaluations par lots
  • Intégrer les évaluations dans GitHub Actions
  • Exercice : automatiser les tests d’un agent IA
Supervision et monitoring des applications IA génératives
  • Suivre les métriques clés (latence, consommation, performance)
  • Mettre en place des outils de monitoring avec Azure
  • Interpréter les résultats pour optimiser les coûts et performances
  • Exercice : activer la supervision d’une application IA
Analyse et débogage avec le traçage
  • Implémenter le traçage avec OpenTelemetry
  • Suivre les flux d’exécution des applications IA
  • Déboguer des workflows complexes
  • Exploiter les données de trace pour optimiser les systèmes
  • Exercice : activer le traçage d’une application IA générative