Formation Introduction to Responsible AI in Practice
Informations générales
Objectifs
Après ce cours, vous serez capable de :
- Mettre en œuvre des processus pour vérifier les biais injustes dans les modèles d’apprentissage automatique
- Explorer des techniques pour interpréter le comportement des modèles d’apprentissage automatique d’une manière compréhensible par l’homme.
- Créer des processus qui garantissent la confidentialité des données sensibles dans les applications de machine learning
- Assurer la sécurité des applications génératives basées sur l’IA
Prérequis
Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :
- Familiarité avec les concepts de base du Machine Learning
- Avoir suivi les cours :
- Text Generation for Applications using Gen AI Studio
- Google Cloud Gen AI Studio : Chat interactif pour les applications
- Google Cloud Vertex AI Model Garden
- Google Cloud Platform - Les fondamentaux du Big Data et du Machine Learning
Public
Ce cours s'adresse avant tout aux personnes suivantes :
- Praticiens de Machine Learning et développeurs d’applications d’IA souhaitant exploiter l’IA générative de manière responsable.
Programme de la formation
Le développement de l’IA a créé de nouvelles opportunités pour améliorer la vie des personnes partout dans le monde, du monde des affaires aux soins de santé en passant par l’éducation.
Cela a également soulevé de nouvelles questions sur la meilleure façon d’intégrer l’équité, l’interprétabilité, la confidentialité et la sécurité dans ces systèmes.
Dans ce cours, vous effectuerez une exploration de haut niveau des meilleures pratiques recommandées par Google pour une utilisation responsable de l’IA dans différents domaines d’intérêt : équité, interprétabilité, confidentialité et sécurité.
En cours de route, vous apprendrez comment exploiter différents outils open source et outils sur Vertex AI pour explorer ces concepts et prendre le temps de réfléchir aux différents défis qui se posent avec l’IA générative.
Principes de l’IA et IA responsable
- Les principes d’IA de Google
- Pratiques responsables en matière d’IA
- Bonnes pratiques générales
L’équité dans l’IA
- Présentation de l’équité dans l’IA
- Exemples d’outils pour étudier l’équité des ensembles de données et des modèles
- Atelier : Utilisation de TensorFlow Data Validation et de TensorFlow Model Analysis pour garantir l’équité
Interprétabilité de l’IA
- Présentation de l’interprétabilité dans l’IA
- Sélection de métrique
- Taxonomie de l’explicabilité dans les modèles ML
- Exemples d’outils pour étudier l’interprétabilité
- Atelier : Outil d’interprétabilité d’apprentissage pour la synthèse de texte
Confidentialité le ML
- Présentation de la confidentialité dans le ML
- Sécurité des données
- Sécurité du modèle
- Sécurité pour l’IA générative sur Google Cloud
Sécurité de l’IA
- Présentation de la sécurité de l’IA
- Tests contradictoires
- Sécurité dans Gen AI Studio
- Atelier : IA responsable avec Gen AI Studio
Méthode pédagogique
Chaque participant travaille sur un poste informatique qui lui est dédié. Un support de cours lui est remis soit en début soit en fin de cours. La théorie est complétée par des cas pratiques ou exercices corrigés et discutés avec le formateur. Le formateur projette une présentation pour animer la formation et reste disponible pour répondre à toutes les questions.
Méthode d'évaluation
Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.
Mis à jour le 24/01/2024