Organisme de Formation aux technologies et métiers de L'informatique

Formation Gouvernance de l'IA : mettre en place processus et outils pour rester conforme

Encadrez le déploiement de l'IA en respectant les lois et l'éthique, pour favoriser la création de valeur et mitiger les risques

Informations générales

GIA24
2 jours (14h)
2 197 €HT

Objectifs

Après ce cours, vous serez capable de :

  • Citer les lois et règlements qui encadrent et encadreront le développement de l’IA
  • Elaborer sa feuille de route de la gouvernance de l’Intelligence Artificielle
  • Identifier et tempérer les risques liés aux données, aux algorithmes et aux usages
  • Préparer un cadre d’audit, documenté et outillé

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • Chief Data Officer (directeur des données), CIGO, AI Program Manager, Data & AI Stewards, DSI, DPO, département compliance/conformité, Juridique, Éthicien, Responsables de la gouvernance, Data & AI Governance Managers.

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Pas de connaissances techniques nécessaires, mais venir avec son ordinateur portable ou sa tablette.

Programme de la formation

Les concepts clés et comment les connecter

  • Les différentes formes de gouvernance : gouvernance d’entreprise, gouvernance du système d’information, gouvernance des données, et donc gouvernance de l’IA…
  • L’intelligence artificielle et ses applications : IA générative, Apprentissage Machine, Apprentissage Profond…
  • Quels sont les liens existants entre gouvernance de l’IA et les autres formes de gouvernance

Identifier les risques

  • Cartographier les risques
  • Les risques liés aux données (erreurs, copyright, représentativité)
  • Les risques liés aux algorithmes
  • Les risques liés aux usages (Deepfake, mauvaises décisions)
  • Que sont les biais (cognitifs et algorithmiques), les hallucinations, les discriminations : comment les évaluer et mesurer leur impact
  • Les IA sous le prisme de la justice sociale
  • Les risques spécifiques à l’utilisation de l’IA pour créer du code informatique
  • Les risques juridiques – évolution de la jurisprudence
  • Risques sociaux et relationnels
  • Etudes de cas : lorsque le risque s’est transformé en crise de communication

Cadres règlementaires, normatifs et réflexions éthiques

  • Aperçu des régulations internationales et spécificités régionales : AI Act, USA, Charte de Montréal
  • Les règles sur les marchés de données : alimenter ses modèles d’IA
  • Comparatif des initiatives réglementaires européennes (AI Act) et américaines
  • La position de la France et les réglementations de la CNIL
  • Les autorités à connaitre : AI Board, AI Office et ses autorités nationales
  • La norme ISO 42001 : se préparer à son application
  • Etudes de cas : régulation versus innovation, comment préserver les deux approches

Elaboration d’une feuille de route de gouvernance de l’IA

  • Cartographie des systèmes et initiatives d’IA dans votre entreprise : classification par niveau de risque
  • Identification des acteurs clefs et de leurs rôles : CDO, CIGO, Data Governance Officer, Data Steward, Data Product Manager, Data Owner, Compliance Manager, DPO…
  • Métiers spécifiques à l’IA : AI Data Engineer, Data Scientist, AI Steward…
  • Le rôle des départements juridique, audit et conformité
  • Comment intégrer ces compétences dans un comité de gouvernance de l’IA
  • Fusionner ou séparer gouvernance de l’IA et gouvernance de l’information
  • Formalisation de la politique de gouvernance des algorithmes : les 10 étapes de la mise en conformité
  • Rédaction d’une charte d’usage acceptable de l’IA (Artificial Intelligence Acceptable Use Policy)
  • Alignement de la gouvernance de l’IA avec la gouvernance d’entreprise, et la gouvernance des données (ISO 24143)
  • Etudes de cas : présentation des stratégies déjà élaborées par certains groupes

Les données

  • Connecter la gouvernance de l’IA et le catalogue de données
  • Modéliser son catalogue des données d’entraînement en YAML
  • Cataloguer les algorithmes (en YAML) et les relier au catalogue des données
  • Mesurer la qualité des données et son impact sur l’exécution des modèles
  • Les données synthétiques sont-elles une solution ?
  • Etudes de cas en équipe : concevoir une ébauche de stratégie de gouvernance IA par rapport à un cas fictif
  • Echanges et discussions autour des stratégies élaborées en équipe

L’éthique

  • Les principes éthiques : justice, équité, transparence, non-discrimination, responsabilité sociale et environnementale, inclusion, solidarité, respect, prudence…
  • Ethique et international : comparer et adapter aux différences culturelles
  • IA verte et IA décarbonée : est-ce réaliste ? Le problème de la consommation énergétique des modèles et de leur exécution
  • Mesurer l’éthique : cadre de référence
  • Risques et solutions pour respecter les principes éthiques dans les développements de l’IA

Les modèles d’IA : transparence, explicabilité et confiance

  • Benchmarker les modèles : méthodes et outils – Concept d’AI Observability
  • Documenter les modèles (données, limites, hypothèses, apprentissage…)
  • Modèles d’IA et cybersécurité : points de vigilance
  • Techniques pour mesurer et améliorer l’explicabilité et la transparence
  • Construire des “bacs à sable” pour tester sa conformité
  • Passer d’une validation initiale à une validation continue : méthodologie et livrables
  • Comment construire la confiance (tout en mesurant le risque) auprès des utilisateurs et des parties prenantes

Audit et responsabilisation

  • La confiance n’exclut pas le contrôle… quels outils pour mesurer le respect des normes : audit interne ou audit externe
  • Auditer ses systèmes d’IA : surveillance humaine, méthodes, cadre d’audit, outils et tableaux de bord
  • Se préparer aux futures certifications : modèle de conformité et évaluation
  • Etude de cas : simulation d’un audit sur un cas pratique

Conclusion et réflexions

  • Au-delà de l’IA, comment instaurer la gouvernance dans la prise de décision automatisée
  • L’impact de l’IA sur notre société : éducation, connaissance, alimentation en boucle des modèles
  • Demain des modèles d’IA dotés de conscience ? Quels impacts ?
  • IA et travail : comment impliquer les ressources humaines dans la gouvernance des impacts sur le travail et son organisation

Méthode pédagogique

Chaque participant travaille sur un poste informatique qui lui est dédié. Un support de cours lui est remis soit en début soit en fin de cours. La théorie est complétée par des cas pratiques ou exercices corrigés et discutés avec le formateur. Le formateur projette une présentation pour animer la formation et reste disponible pour répondre à toutes les questions.

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Mis à jour le 09/08/2024