Assurer la sécurité et la conformité des intelligences Artificielles

Sécurité des systèmes à base d'IA

Formation créée le 04/08/2025.
Version du programme : 1

Type de formation

Présentiel

Durée de formation

35 heures

Accessibilité

Oui
Net de TVA
S'inscrire
Net de TVA
S'inscrire
Net de TVA
S'inscrire

Assurer la sécurité et la conformité des intelligences Artificielles

Sécurité des systèmes à base d'IA


L’intelligence artificielle s’impose aujourd’hui comme un levier de performance et d’innovation dans tous les secteurs d’activité. Toutefois, son développement soulève des risques spécifiques — techniques, juridiques, éthiques et sécuritaires — que les entreprises doivent impérativement maîtriser. L’entrée en vigueur prochaine du Règlement européen sur l’IA (IA Act), combinée aux exigences du RGPD, des normes ISO/IEC 42001 (gouvernance IA) et ISO/IEC 23894 (gestion des risques IA), impose aux organisations de mettre en place une gouvernance structurée, documentée et conforme pour leurs systèmes d’intelligence artificielle. Cette formation a pour objectif de permettre aux professionnels (cybersécurité, conformité, juridique, IT, métiers) de comprendre les exigences réglementaires et normatives, de cartographier les actifs IA, d’évaluer et traiter les risques associés, et de produire les livrables attendus dans une démarche de conformité et d’audit. Elle constitue un levier stratégique de mise en conformité, de gestion proactive des risques et de sécurisation des projets IA, dans un contexte de transformation numérique accélérée, de pression réglementaire croissante et d’attentes sociétales fortes.

Objectifs de la formation

  • Comprendre les enjeux, normes et obligations liées à l’IA (IA Act, RGPD, ISO 42001, NIST, etc.)
  • Identifier les composants critiques d’un système IA et leurs vulnérabilités spécifiques
  • Cartographier les actifs métiers d’un système à base d’IA et les risques associés
  • Construire des scénarios de risque et les analyser (stratégiques et opérationnels)
  • Concevoir et piloter un plan de traitement des risques IA
  • Définir un dispositif de gouvernance et de conformité adapté aux systèmes IA

Profil des bénéficiaires

Pour qui
  • Responsables SSI, RSSI, DPO, CISO
  • Risk Managers, juristes IT, chefs de projets numériques
  • Architectes SI, ingénieurs IA, développeurs ML/IA
  • Consultants cybersécurité, auditeurs, chargés de conformité
  • Toute personne impliquée dans la conception, l’exploitation, le pilotage ou l’audit de systèmes IA
Prérequis
  • Connaissances générales en sécurité des SI ou en gestion des risques
  • Une première familiarité avec l’intelligence artificielle (fonctionnement, cas d’usage) est un plus

Contenu de la formation

Introduction & Cadre réglementaire et normatif
  • Introduction à la sécurité des systèmes à base d’intelligence artificielle
  • Principes fondamentaux de l’IA (symbolique, apprentissage, générative, AGI)
  • Gouvernance du cycle de vie de l’IA : développement, entraînement, déploiement, supervision
  • Typologie des vulnérabilités propres aux IA (biais, dérives, adversarial attacks, hallucinations)
  • Cadre réglementaire : Règlement européen AI Act, RGPD & IA, ISO/IEC 42001 et & autres référentiels (ISO 23894, NIST AI RMF, OCDE, ENISA)
Architecture d’un système IA
  • Typologie des IA (symbolique, apprentissage, générative, hybride…)
  • Architecture des systèmes d’IA : IA seule, système à base d’IA, Différences entre IA cloud vs IA on-premise, Identification et classification des composants critiques (modèle, pipeline, jeux de données, interface, API…)
  • Inventaire des actifs métiers IA et valeurs métiers associées
Identification des risques & scénarios
  • Événements redoutés et menaces spécifiques (hallucination, dérive, biais, attaques adversariales, non-conformité, fuite de données, indisponibilité,…)
  • Sources de risques et OV : internes, externes, humaines, techniques, réglementaires
  • Construction de scénarios stratégiques et opérationnels
  • Outils et méthodes de cartographie des risques
Évaluation et traitement des risques
  • Méthodes d’évaluation du risque : impact x vraisemblance (qualitative/quantitative)
  • Élaboration d’un plan de traitement des risques IA : Mesures techniques : robustesse, résilience, traçabilité, explainability, IA SecOps, Mesures organisationnelles : politique IA, comités d’éthique, journalisation, processus de validation, audits…
  • Atelier de mise en pratique
Étude de cas & Certification
  • Étude de cas complète (par équipe ou individuelle) sur un cas concret (santé, finance, éducation, etc.)
  • Restitution et debriefing des travaux
  • Révision des points clés
  • Examen final : QCM + oral sur l’étude de cas
  • Remise d’une attestation de réussite / certification interne

Équipe pédagogique

Formation dispensée par des experts en cybersécurité et conformité

Suivi de l'exécution et évaluation des résultats

  • Examen final (QCM + étude de cas)

Ressources techniques et pédagogiques

  • Supports de cours théoriques
  • Ateliers pratiques
  • Études de cas

Qualité et satisfaction

Taux de satisfaction des apprenants : 95%

Délai d'accès

2 semaines

Accessibilité

Formation accessible aux personnes en situation de handicap. Merci de nous contacter pour toute adaptation nécessaire.