flowchart TD
A[Gouvernance GenAI] --> B[Frameworks &\nPrincipes]
A --> C[Politiques\nde données]
A --> D[Sécurité &\nProtection]
A --> E[Identity &\nAccess Management]
A --> F[Risk\nManagement]
A --> G[Regulatory\nCompliance]
A --> H[Third-Party\nRisk]
A --> I[Approval Process\n& Registry]
A --> J[Behavioral\nAnalytics]
A --> K[Monitoring\nContinu]
A --> L[User Awareness\nTraining]
style A fill:#1a1a2e,color:#fff
Gouvernance GenAI : ce qui manque dans la plupart des déploiements
Sur plusieurs missions d’infrastructure et MLOps, j’ai vu le même scénario se répéter : un déploiement GenAI qui démarre vite, sans cadre formalisé, et qui crée des angles morts que personne ne voit jusqu’au moment où quelqu’un pose la mauvaise question. Qui est responsable si le modèle hallucine sur des données client ? Les logs de conversation, ils sont stockés où ? Votre provider IA, vous avez vérifié sa conformité GDPR ?
Ce document est le cadre que j’utilise comme référence opérationnelle. Il s’appuie sur la formation Implement GenAI Governance Step by Step (Dr. Amar Massoud) et sur les standards du secteur — NIST AI RMF, EU AI Act, ISO/IEC 38507. L’objectif : avoir quelque chose d’actionnable pour un RSSI, pas une liste de principes qui reste dans un tiroir.
1 Les cinq angles morts récurrents
Les équipes savent intuitivement ce qui est “sensible”, mais il n’y a pas de définition écrite de qui peut accéder à quoi, sous quelles conditions, et pendant combien de temps. Quand un auditeur ou un partenaire demande la documentation, ça bloque.
Le modèle est mis en prod parce qu’il “fonctionne en démo”. Personne n’a formellement évalué ce qui se passe si le modèle produit un output biaisé, si une API tombe, ou si les données d’entraînement sont corrompues.
Le provider LLM a été choisi sur la qualité technique. Sa conformité GDPR, sa stabilité financière, sa politique de rétention des données — personne n’a vraiment regardé.
Les logs de conversation entre utilisateurs et modèle contiennent souvent des données personnelles. Ils sont stockés en clair, accessibles trop largement, sans politique de rétention définie.
En cas de breach ou de comportement anormal du modèle, personne ne sait exactement quoi faire, dans quel ordre, et qui notifier. Le plan existe peut-être sur papier mais n’a jamais été simulé.
2 Périmètre : ce qu’une gouvernance GenAI doit couvrir
3 1. Frameworks de référence
Le cadre le plus opérationnel pour la gestion des risques IA. Quatre fonctions en boucle :
flowchart LR
G[GOVERN\nPolitiques, rôles\nresponsabilités] --> M[MAP\nIdentifier et\ncatégoriser les risques]
M --> ME[MEASURE\nÉvaluer\nl'impact potentiel]
ME --> MA[MANAGE\nMitigations et\nmonitoring continu]
MA --> G
Ce que ça implique concrètement : nommer un AI Owner avec des responsabilités écrites, définir la fréquence des revues de risques (trimestrielle minimum), documenter chaque décision de déploiement. Sans rôles explicitement nommés, la gouvernance reste théorique.
Classification des systèmes IA par niveau de risque — avec des obligations proportionnelles :
flowchart TD
UA["Risque inacceptable\nInterdit\nEx: social scoring, manipulation"] --> HR["Risque élevé\nAudit obligatoire, transparence\nsupervision humaine\nEx: RH, crédit, santé, justice"]
HR --> LR["Risque limité\nObligations de transparence\nEx: chatbots, deepfakes"]
LR --> MR["Risque minimal\nPas d'exigence spécifique\nEx: filtres spam, jeux"]
style UA fill:#cc0000,color:#fff
style HR fill:#ff6600,color:#fff
style LR fill:#ffaa00
style MR fill:#006600,color:#fff
Si votre GenAI prend des décisions qui affectent des personnes (recrutement, crédit, santé, accès aux services), vous êtes en zone risque élevé — supervision humaine obligatoire, documentation complète, audit avant déploiement, conformité continue.
ISO/IEC 38507 — gouvernance de l’IA au niveau organisationnel : engagement du top management, politiques IA intégrées à la gouvernance IT globale, évaluation continue des performances et de la conformité.
ISO/IEC 38505 — gouvernance des données : accountability, transparence, usage éthique. Référentiel utilisé pour aligner les pratiques avec les standards internationaux.
OECD AI Principles — inclusivité (l’IA bénéficie à tous), valeurs centrées sur l’humain, transparence et explicabilité, robustesse et sécurité.
DAMA / COBIT / CMMI — frameworks de gouvernance des données complémentaires : DAMA pour la gestion globale des données, COBIT pour l’alignement avec les objectifs organisationnels et la gestion des risques, CMMI pour l’amélioration continue des capacités.
flowchart LR
ORG[Votre système GenAI] --> GDPR[GDPR\nDonnées personnelles EU\nNotification breach 72h]
ORG --> CCPA[CCPA\nCalifornie\nDroits consommateurs]
ORG --> HIPAA[HIPAA\nSanté — USA]
ORG --> EUAI[EU AI Act\nSystèmes IA à risque]
ORG --> SECT[Réglementations\nsectorielles\nFinance, santé, énergie...]
4 2. Politiques de données — ce qu’il faut formaliser
Quatorze politiques couvrent le périmètre complet. En pratique, toutes ne sont pas également urgentes.
4.1 Priorité 1 — Avant tout déploiement en production
Ces quatre politiques couvrent les risques les plus immédiats. Leur absence expose l’organisation à des risques juridiques et opérationnels non documentés.
Data Privacy Policy — définit comment les données personnelles sont collectées, traitées, stockées et supprimées. Inclut les droits des personnes concernées (accès, rectification, suppression, portabilité).
Piège fréquent : la politique couvre la production mais oublie les environnements de test — qui contiennent souvent les mêmes données réelles.
Data Security Policy — mesures techniques et organisationnelles pour prévenir les accès non autorisés. Chiffrement, contrôles d’accès, gestion des clés, procédures de patch.
Piège fréquent : chiffrement en base de données, mais les dumps de backup stockés en clair sur un bucket S3 mal configuré. La politique doit couvrir tous les emplacements de données.
Data Access Policy — qui peut accéder à quoi, sous quelles conditions. RBAC défini, documenté et révisable.
Piège fréquent : le RBAC est configuré au lancement, jamais révisé. 18 mois plus tard, des personnes ayant changé de poste conservent leurs anciens accès.
Data Incident Response Policy — que faire en cas de breach, dans quel ordre, qui notifier, dans quel délai (72h RGPD).
Piège fréquent : le plan existe sur papier mais n’a jamais été simulé. La première fois qu’il sert, c’est en condition réelle.
4.2 Priorité 2 — Dans les 90 jours suivant le déploiement
Data Classification Policy — niveaux de sensibilité des données. Sans cette classification, les mesures de protection sont appliquées de façon uniforme là où elles devraient être proportionnelles.
Exemple de niveaux :
| Niveau | Type de données | Mesures |
|---|---|---|
| 4 — Critique | PII, données santé, secrets commerciaux, données financières | Chiffrement fort, accès minimal, audit continu |
| 3 — Confidentiel | Données internes sensibles, logs avec PII | Chiffrement, RBAC strict, rétention limitée |
| 2 — Interne | Données opérationnelles, logs système | Contrôles d’accès standards |
| 1 — Public | Données publiées, documentation ouverte | Pas de restriction spécifique |
Data Retention Policy — durée de conservation et conditions de suppression. Impacte la compliance RGPD et les coûts de stockage. Pour les logs de conversation GenAI : définir explicitement la durée de rétention et les conditions d’accès.
Data Quality Policy — standards minimaux pour les données qui entrent dans le système. Critique pour les pipelines RAG : la qualité des outputs dépend directement de la qualité des données d’indexation. Garbage in, garbage out.
Data Usage Policy — usages autorisés et interdits. Qui peut utiliser les outputs du modèle, dans quel cadre, pour quelles décisions. Quelles décisions ne peuvent pas être déléguées au modèle sans supervision humaine.
4.3 Priorité 3 — Politiques de structure
Data Governance Framework Policy — rôles et instances de décision. Qui est AI Owner, qui est Data Steward, qui valide les politiques.
Data Sharing Policy — conditions de partage interne et externe. Clauses contractuelles à inclure avec les partenaires.
Data Ownership Policy — responsabilités de stewardship. Qui est accountable pour chaque dataset.
Data Audit Policy — fréquence et périmètre des revues. Audit interne trimestriel, audit externe annuel.
Data Ethics Policy — usage éthique, prévention des biais, fairness. Processus de revue des décisions algorithmiques.
Data Integration Policy — conditions pour combiner des sources de données. Maintien de la qualité et de la cohérence lors des intégrations.
5 3. Sécurité technique — Protection des données
5.1 Chiffrement
flowchart TD
DATA[Données sensibles] --> REST["At Rest\nBDD, fichiers, backups, exports\nAES-256"]
DATA --> TRANSIT["In Transit\nAPI, réseau interne/externe\nTLS 1.3 / VPN"]
REST --> KM["Key Management\nGénération, distribution\nRotation périodique\nStockage sécurisé (HSM)\nAccès restreint et audité"]
TRANSIT --> KM
Exigences minimales : - AES-256 pour les données au repos - TLS 1.3 pour les données en transit - Rotation des clés planifiée et automatisée - HSM (Hardware Security Module) pour les clés critiques - Accès aux clés tracé et audité - Mise à jour régulière des protocoles de chiffrement à mesure que de nouvelles vulnérabilités sont découvertes
5.2 Data Masking — Environnements non-prod
Le masquage remplace les données réelles par des données fictives structurellement cohérentes dans les environnements de développement et de test.
Static Data Masking (SDM) — transformation avant export vers dev/test. Les données originales restent intactes en production.
Dynamic Data Masking (DDM) — masquage en temps réel selon les droits de l’utilisateur. Les données originales restent intactes en base, seul l’affichage est masqué selon le profil.
Exemples de techniques par type de donnée :
| Type de donnée | Technique | Exemple |
|---|---|---|
| Nom/prénom | Substitution | Alex Smith → John Doe |
| Numéro carte bancaire | Masquage partiel | → ****1234 |
| SSN | Tokenisation | 123-456-789 → TKN987654321 |
| Anonymisation | user@example.com → aXX@masked.com | |
| Téléphone | Masquage partiel | 0612345678 → 06XXXXXX78 |
| Adresse | Généralisation | 123 rue de la Paix → XXX rue, ville |
| Dossier médical | Rédaction | “diabète” → “condition chronique” |
| Compte bancaire | Chiffrement | 1234567890 → g5h8k7L3 |
| Date de naissance | Format-preserving | 01/01/1990 → ##/##/1990 |
| Salaire | Shuffle | 75 000€ → 82 000€ (valeur d’un autre employé) |
Le masquage doit conserver la structure et les relations des données. Un client masqué doit toujours avoir ses commandes liées — sinon les tests ne sont pas représentatifs de la réalité.
5.3 Points de fuite à auditer
flowchart TD
DL[Points de fuite GenAI] --> I1["User Input\nPII dans les prompts\nDonnées financières, médicales"]
DL --> I2["API Integrations\nEndpoints non sécurisés\nAuthentification insuffisante"]
DL --> I3["Stockage\nBuckets cloud mal configurés\nPermissions trop larges"]
DL --> I4["Logs de conversation\nDonnées PII en clair\nRétention non définie\nAccès trop large"]
DL --> I5["Backups\nNon chiffrés\nStockés en lieu non sécurisé"]
DL --> I6["Third-party vendors\nSans audit sécurité\nDonnées partagées sans DPA"]
DL --> I7["Endpoints utilisateurs\nLaptops, mobiles, USB\nNon chiffrés, non managés"]
DL --> I8["Email & messaging\nPartage non sécurisé\nAbsence de DLP"]
DL --> I9["Sécurité physique\nAccès datacenter\nDocuments physiques"]
DL --> I10["Vulnérabilités applicatives\nCode non audité\nBibliothèques non mises à jour"]
style I4 fill:#cc3300,color:#fff
style I5 fill:#cc3300,color:#fff
Si votre système trace les échanges utilisateur/modèle — pour du debugging, de l’analytics ou de l’amélioration continue — ces logs contiennent potentiellement des données sensibles saisies par les utilisateurs. Politique de rétention, chiffrement et accès restreint sont obligatoires sous RGPD. Ce n’est pas négociable.
6 4. Identity & Access Management
6.1 Cycle de vie des identités
flowchart LR
CREATE["Création\nIdentité unique\nCréation des credentials\nAssignation du rôle"] --> ASSIGN["Attribution des droits\nRBAC selon le poste\nPrincipe du moindre privilège"]
ASSIGN --> MONITOR["Monitoring continu\nActivités tracées\nAnomalies détectées"]
MONITOR --> AUDIT["Audit périodique\nRevue des droits\nDésactivation des comptes inactifs"]
AUDIT --> UPDATE["Mise à jour\nChangement de poste\nNouvelles responsabilités"]
UPDATE --> DEPROV["Déprovisionnement\nDépart de l'organisation\nRévocation immédiate"]
DEPROV --> MONITOR
Quand un employé quitte l’organisation ou change de poste, ses accès doivent être révoqués ou mis à jour immédiatement. Les comptes orphelins sont l’une des sources les plus fréquentes de violations de données internes.
6.2 RBAC vs ABAC
flowchart TD
subgraph RBAC["RBAC — Role-Based Access Control"]
direction LR
R1["Rôle : Développeur IA\n→ Accès : dépôts code, environnements dev"]
R2["Rôle : Data Scientist\n→ Accès : datasets, outils analytics"]
R3["Rôle : Admin Système\n→ Accès complet avec audit renforcé"]
R4["Rôle : Utilisateur Final\n→ Accès : interface uniquement"]
end
subgraph ABAC["ABAC — Attribute-Based Access Control"]
direction LR
A1["Attributs : poste + heure + localisation + projet + clearance"] --> D1{"Évaluation\nde la politique"}
D1 -->|"Tous les critères remplis"| OK["✓ Accès accordé"]
D1 -->|"Condition non remplie"| NOK["✗ Accès refusé"]
end
Principe du moindre privilège — chaque utilisateur dispose uniquement des accès strictement nécessaires à ses fonctions. Réduire la surface d’attaque en cas de compromission de compte.
En pratique pour un déploiement GenAI :
- RBAC comme base : définir les rôles (développeur, data scientist, utilisateur métier, admin, auditeur)
- ABAC pour les ressources sensibles : accès aux données PII uniquement depuis le réseau interne, en heures ouvrées, pour les membres du projet concerné
- Révision des droits à chaque changement de poste et au minimum tous les 6 mois
- Comptes de service avec droits minimaux, jamais de credentials partagés
6.3 Méthodes d’authentification
Multi-Factor Authentication : combinaison d’au moins deux facteurs. - Quelque chose que l’utilisateur sait : mot de passe - Quelque chose que l’utilisateur possède : token hardware, application TOTP, SMS - Quelque chose que l’utilisateur est : empreinte digitale, reconnaissance faciale
MFA obligatoire pour tous les accès aux systèmes GenAI et aux données sensibles. Réduit drastiquement le risque d’accès non autorisé même en cas de compromission d’un facteur.
Vérification basée sur des traits biologiques uniques : empreintes digitales, reconnaissance faciale, iris. Difficile à répliquer ou voler. Particulièrement adapté pour les accès aux systèmes critiques.
Génération d’un token unique par session après authentification réussie. Token chiffré, à durée de vie limitée. Évite la réauthentification répétée tout en maintenant la sécurité.
Single Sign-On : un seul ensemble de credentials pour accéder à plusieurs applications. Améliore l’expérience utilisateur, centralise la gestion de l’authentification, facilite l’application des politiques de sécurité et le monitoring.
Public Key Infrastructure : paires de clés cryptographiques émises par une autorité de certification. Clé privée gardée secrète, clé publique partagée. Signature numérique vérifiable. Utilisé pour les accès très sensibles et les communications inter-systèmes.
Authentification continue basée sur les patterns comportementaux : rythme de frappe, mouvements de souris, habitudes de navigation. Détecte les déviations qui pourraient indiquer un compte compromis même après authentification initiale réussie.
Évaluation du contexte de chaque tentative d’authentification : localisation, appareil utilisé, heure d’accès. Si le contexte dévie des habituelles (ex : connexion depuis un nouveau pays), des étapes de vérification supplémentaires sont déclenchées.
6.4 Bonnes pratiques IAM pour GenAI
- Audit trail complet : chaque accès aux données et aux modèles est loggé avec user, timestamp, ressource, action
- Revue d’accès régulière : audit des permissions tous les 6 mois minimum, revue immédiate après changement organisationnel
- Comptes de service : credentials dédiés par service, rotation automatique, jamais de credentials partagés entre services
- Séparation des environnements : comptes et credentials différents entre dev, staging et prod
- Formation : sensibilisation aux mots de passe forts, au phishing, aux bonnes pratiques d’authentification
7 5. Approval Process & Registry des applications
Toute application GenAI doit passer par un processus formel d’approbation avant déploiement. L’absence de ce processus est l’une des causes principales d’exposition non documentée.
7.1 Processus d’approbation
flowchart TD
START["Demande de déploiement\nd'une application GenAI"] --> ASSESS["1. Évaluation initiale\nObjectifs, périmètre\nAlignement stratégique\nCritères d'évaluation définis"]
ASSESS --> TECH["2. Évaluation technique\nArchitecture du modèle\nSources de données\nAlgorithmes utilisés\nPerformances (accuracy, F1, MSE...)"]
TECH --> PILOT["3. Phase pilote\nEnvironnement contrôlé\nSimulation conditions réelles\nCollecte des retours utilisateurs\nIdentification des problèmes"]
PILOT --> SEC["4. Audit sécurité & compliance\nConformité réglementaire (GDPR, HIPAA...)\nContrôles d'accès\nProtection des données\nTest de pénétration si pertinent"]
SEC --> UAT["5. User Acceptance Testing\nTests par les utilisateurs finaux\nValidation de l'ergonomie\nVérification des cas d'usage réels"]
UAT --> DOC["6. Revue de la documentation\nManuels utilisateurs\nSpécifications techniques\nGuides opérationnels\nPolitiques applicables"]
DOC --> MEETING["7. Réunion d'approbation formelle\nParties prenantes : tech, métier\ncompliance, RSSI, DPO\nDécision collégiale documentée"]
MEETING --> GO{"Décision"}
GO -->|"Approuvé"| DEPLOY["8. Déploiement\nConfiguration finale\nMise en place du monitoring\nFormation des utilisateurs\nAjout au registry"]
GO -->|"Refusé / Conditions"| REWORK["Retour en développement\nCorrections requises\ndocumentées"]
REWORK --> TECH
7.2 Registry des applications approuvées
Le registry est un référentiel centralisé de toutes les applications GenAI déployées. C’est un outil de gouvernance, pas une formalité administrative.
Ce que le registry doit contenir pour chaque application :
| Champ | Description |
|---|---|
| Nom & version | Identifiant unique, numéro de version |
| Objectif | Description fonctionnelle, cas d’usage |
| Niveau de risque EU AI Act | Inacceptable / Élevé / Limité / Minimal |
| Données traitées | Types, classification, volumétrie |
| Périmètre réglementaire | GDPR, HIPAA, CCPA, sectoriels |
| AI Owner | Responsable désigné |
| Date d’approbation | Et durée de validité de l’approbation |
| Conditions d’approbation | Contraintes, restrictions d’usage |
| Vendors & dépendances | Providers LLM, APIs externes, datasets |
| Historique des versions | Mises à jour, modifications majeures |
| Date de décommissionnement | Prévue ou réelle |
| Statut | En production / En test / Décommissionné |
Gouvernance du registry :
- Accès en écriture restreint aux personnes autorisées (RSSI, AI Owner, compliance)
- Audit log des modifications
- Revue trimestrielle pour vérifier l’exactitude des entrées
- Alertes automatiques pour les applications dont l’approbation arrive à expiration
- Processus de décommissionnement documenté : que devient la donnée quand l’application est retirée ?
Le registry n’est utile que s’il est maintenu à jour en temps réel. Une entrée obsolète est pire qu’une entrée absente : elle crée une fausse impression de contrôle.
7.3 Évaluation des applications GenAI — Critères
Pour chaque application soumise à approbation, évaluer systématiquement :
Performance du modèle : - Accuracy, precision, recall, F1 score pour les modèles de classification - MSE, R² pour les modèles de régression - Évaluation sur des datasets représentatifs des conditions réelles
Qualité des données : - Exactitude, complétude, représentativité - Détection de biais dans les données d’entraînement - Traçabilité des sources de données
Scalabilité & robustesse : - Comportement sous charge (stress testing) - Résilience aux données bruitées ou incomplètes - Maintien des performances avec des volumes croissants
Sécurité & compliance : - Conformité aux réglementations applicables - Mesures de sécurité implémentées - Résultats des audits de sécurité
Éthique & biais : - Absence de discrimination dans les outputs - Transparence des décisions - Mécanisme de supervision humaine si nécessaire
8 6. Risk Management
8.1 Matrice de risques — Systèmes GenAI
quadrantChart
title Priorités de risques — Sévérité × Probabilité
x-axis Probabilité faible --> Probabilité élevée
y-axis Sévérité faible --> Sévérité élevée
quadrant-1 Action immédiate
quadrant-2 Surveiller
quadrant-3 Acceptable
quadrant-4 À planifier
Accès non autorisé données: [0.5, 0.9]
Exploitation vulnérabilités: [0.75, 0.9]
Biais modèle IA: [0.5, 0.85]
Vol propriété intellectuelle: [0.5, 0.88]
Dégradation perf. haute charge: [0.75, 0.55]
Non-conformité GDPR: [0.5, 0.55]
Pannes système: [0.25, 0.85]
Menaces internes: [0.5, 0.5]
Risques vendeurs tiers: [0.5, 0.5]
Intégrité des données: [0.25, 0.45]
8.2 Techniques d’évaluation des risques
Qualitative — catégorisation sévérité/probabilité par jugement expert. Point d’entrée pour la plupart des organisations. Rapide à mettre en place, utile pour prioriser les actions.
Quantitative — analyse numérique avec modèles statistiques et données historiques. Permet d’estimer l’impact financier d’un incident. Plus précis, plus coûteux à produire.
Scenario Analysis — création de scénarios hypothétiques pour explorer les conséquences de chaque événement de risque. Aide à préparer des réponses adaptées.
FMEA (Failure Modes and Effects Analysis) — analyse systématique de chaque composant du système et de ses modes de défaillance possibles. Identifie les points de fragilité avant qu’ils ne se manifestent.
Bowtie Analysis — vue combinée des causes (fault tree) et des effets (event tree) autour d’un événement central. Permet de visualiser simultanément les mesures préventives et réactives.
Monte Carlo — simulation probabiliste des impacts par échantillonnage aléatoire. Fournit une distribution des scénarios possibles plutôt qu’un point unique.
Sensitivity Analysis — identification des variables qui ont le plus d’influence sur les niveaux de risque. Aide à concentrer les efforts sur les leviers les plus critiques.
Risk Matrix — visualisation bidimensionnelle probabilité × impact. Outil de communication efficace pour les parties prenantes non techniques.
8.3 Stratégies de mitigation
| Risque | Sévérité | Probabilité | Mitigation |
|---|---|---|---|
| Accès non autorisé aux données | Élevée | Moyenne | Chiffrement AES-256 + RBAC strict + audit trails + MFA |
| Exploitation de vulnérabilités | Élevée | Élevée | Patch management + audits sécurité + pen tests réguliers |
| Biais IA | Élevée | Moyenne | Bias audits périodiques + mise à jour données d’entraînement + supervision humaine |
| Vol de propriété intellectuelle | Élevée | Moyenne | DRM + protections légales + monitoring distribution |
| Pannes système | Élevée | Faible | Redondance + mécanismes de failover + tests de basculement |
| Menaces internes | Moyenne | Moyenne | Contrôles d’accès stricts + monitoring comportemental + principe du moindre privilège |
| Non-conformité RGPD | Moyenne | Moyenne | Revues compliance régulières + formation + DPO impliqué |
| Dégradation performance | Moyenne | Élevée | Load balancing + performance testing + scaling automatique |
| Risques vendeurs tiers | Moyenne | Moyenne | Due diligence + évaluations contractuelles annuelles + clauses de sortie |
| Intégrité des données | Moyenne | Faible | Validation des données d’entrée + procédures de backup + checksums |
9 7. Third-Party Risk — Due Diligence Vendors IA
9.1 Les cinq axes d’évaluation
flowchart LR
DD[Due Diligence\nVendeur IA] --> FIN["Financier\nBilan, P&L, cash flow\nstabilité long terme\nrisque de défaillance"]
DD --> LEGAL["Légal & Compliance\nLicences en règle\nLitiges passés\nSOC 2, ISO 27001\nDPA signable ?"]
DD --> OPS["Opérationnel\nUptime SLA\nTemps de réponse\nStack tech & IP\nPlan de continuité"]
DD --> HR["Organisation\nTurnover\nCulture sécurité\nCompétences clés\nDépendance aux personnes"]
DD --> MARKET["Position marché\nBase clients\nCroissance\nRisque de rachat\nRisque de pivot produit"]
9.2 Questions à poser à chaque vendor IA
Sur les données :
- Quelle est votre politique de rétention des prompts et des outputs ?
- Les données que nous vous envoyons servent-elles à entraîner vos modèles ?
- Où sont physiquement stockées les données ? Dans quelle juridiction ?
- Avez-vous une option zero data retention ? À quel coût ?
- Comment gérez-vous les demandes de suppression (droit à l’oubli RGPD) ?
- Qui a accès à nos données au sein de votre organisation ?
Sur la compliance :
- Êtes-vous certifié SOC 2 Type II ? ISO 27001 ? Quand a eu lieu le dernier audit ?
- Avez-vous signé des DPA (Data Processing Agreements) avec des clients EU ?
- Comment gérez-vous les sous-traitants qui ont accès à nos données ?
- Quelle est votre politique en cas de breach affectant nos données ?
Sur la stabilité et la continuité :
- Quelle est votre procédure de continuité de service en cas de défaillance majeure ?
- Que se passe-t-il pour nos données si vous êtes rachetés ou si vous cessez votre activité ?
- Quelle est votre clause de sortie ? Comment récupère-t-on nos données ?
- Quel est le SLA garanti ? Quelle compensation en cas de non-respect ?
Intégrer ces questions dans un questionnaire standardisé à envoyer à chaque nouveau vendor avant contractualisation. Refaire l’exercice annuellement pour les vendors critiques. Documenter les réponses dans le registry.
9.3 Gestion contractuelle des vendors
Le contrat est le seul levier de protection légale si un vendor faillit à ses obligations. Il doit couvrir explicitement :
- Scope : périmètre exact des services, données concernées, livrables attendus
- SLAs : uptime, temps de réponse, pénalités en cas de non-respect
- Data Protection : conformité GDPR/CCPA, localisation des données, rétention, suppression
- Confidentialité : clauses NDA, protection des données propriétaires
- IP : propriété des modèles développés, des données d’entraînement, des outputs
- Amendments : processus de modification documenté et signé par les deux parties
- Audit rights : droit d’auditer le vendor ou d’exiger un rapport d’audit tiers
- Exit strategy : procédure de sortie, délais, format de restitution des données, destruction certifiée
Monitoring continu des vendors :
- Rapports de performance mensuels
- Audits de conformité trimestriels
- Revue contractuelle annuelle
- Alertes en cas de changements majeurs chez le vendor (rachat, incident sécurité, changement de politique)
10 8. Behavioral Analytics & User Monitoring
Le monitoring comportemental est la couche de détection qui permet d’identifier des menaces que les contrôles d’accès seuls ne voient pas — notamment les menaces internes et les comptes compromis.
10.1 Principe de fonctionnement
flowchart LR
COLLECT["Collecte des données\nLogin times\nLocations d'accès\nRessources consultées\nVolumes téléchargés\nActions réalisées"] --> BASELINE["Établissement\nd'une baseline\nComportement normal\npar utilisateur et par rôle"]
BASELINE --> ANALYZE["Analyse continue\nAlgorithmes ML\nDétection de patterns\nComparaison à la baseline"]
ANALYZE --> ALERT["Alertes en temps réel\nDéviation détectée\nÉquipe sécurité notifiée"]
ALERT --> INVESTIGATE["Investigation\nContextualisation\nFaux positifs filtrés\nIncident confirmé ou clôturé"]
INVESTIGATE --> UPDATE["Mise à jour\ndes modèles\nMensuelle minimum\nNouvelles menaces intégrées"]
UPDATE --> COLLECT
10.2 Signaux d’alerte à surveiller pour les systèmes GenAI
Accès inhabituels : - Connexion en dehors des heures de travail habituelles (ex : 2h du matin) - Connexion depuis une localisation inhabituelle ou un pays non prévu - Connexion depuis un appareil non reconnu ou non référencé
Volumes anormaux : - Téléchargement massif de données en peu de temps - Nombre de requêtes au modèle inhabituellement élevé - Accès à des fichiers ou datasets jamais consultés auparavant
Comportements suspects : - Accès répétés à des fichiers sensibles sans justification métier apparente - Tentatives d’accès à des ressources non autorisées - Utilisation du modèle pour des requêtes très différentes du cas d’usage prévu
Indicateurs spécifiques GenAI : - Prompts contenant des patterns d’injection ou de jailbreak - Exfiltration de données via le modèle (demandes de résumés de documents confidentiels) - Utilisation du modèle en dehors du périmètre applicatif défini
10.3 Outils de monitoring comportemental
Outils cités dans la formation ou couramment utilisés : TensorFlow (ML pour détection d’anomalies), Python ML libraries, Datadog, Splunk, AWS CloudWatch.
Mettre à jour les modèles comportementaux au minimum mensuellement. Le comportement utilisateur évolue, les nouvelles menaces aussi. Un modèle figé devient rapidement inefficace.
11 9. Monitoring Continu & Audit
Le monitoring n’est pas une option — c’est ce qui permet de détecter les dérives avant qu’elles ne deviennent des incidents.
11.1 Framework de monitoring
flowchart TD
KPI["Définir les KPIs\net métriques\nUptime, accuracy\ntemps de réponse\nconformité GDPR"] --> TOOLS["Déployer les outils\nDatadog, Splunk\nAWS CloudWatch\nArize, MLflow"]
TOOLS --> RT["Monitoring temps réel\nCollecte automatique\nAnalyse continue\nAlertes sur déviations"]
RT --> AUDIT["Audits réguliers\nSécurité : trimestriel\nPerformance : mensuel\nCompliance : semestriel"]
AUDIT --> INCIDENT["Gestion des incidents\nPlan d'action prédéfini\nDiagnostic, mitigation\nPrévention des récurrences"]
INCIDENT --> LOG["Logs & traçabilité\nJournal de toutes les\nopérations et modifications\nAudit trail complet"]
LOG --> REPORT["Reporting\nManagement mensuel\nRégulateurs si requis\nParties prenantes"]
REPORT --> IMPROVE["Amélioration continue\nAnalyse des tendances\nMise à jour des modèles\nRévision des politiques"]
IMPROVE --> KPI
11.2 KPIs à monitorer pour un système GenAI
Performance système : - Uptime (SLA cible : 99.9%) - Temps de réponse moyen (ex : < 200ms) - Taux d’erreur des API
Qualité du modèle : - Accuracy, F1 score sur des datasets de référence - Taux de refus inappropriés - Taux de réponses biaisées ou problématiques (nécessite une évaluation humaine)
Sécurité : - Tentatives d’accès non autorisées - Anomalies comportementales détectées - Vulnérabilités identifiées et délai de remédiation
Compliance : - Conformité GDPR : taux de traitement des demandes de droits dans les délais - Couverture des audits planifiés vs. réalisés - Nombre d’incidents de compliance
11.3 Processus d’audit
Audit interne trimestriel : 1. Définir le scope et les objectifs de l’audit 2. Collecter les logs, configurations, journaux d’accès 3. Interviewer les équipes impliquées 4. Évaluer la conformité aux politiques et réglementations 5. Documenter les findings et recommandations 6. Partager le rapport avec le management et les régulateurs si nécessaire 7. Suivre la mise en œuvre des recommandations
Audit externe annuel : - Évaluation objective par un tiers - Scope plus large que l’audit interne - Rapport partagé avec les régulateurs si requis - Certification (ISO 27001, SOC 2) si pertinent
Les logs doivent être conservés dans un système séparé du système audité, avec des droits d’accès distincts. Des logs stockés sur le même système que celui qu’ils tracent peuvent être falsifiés ou supprimés en cas d’incident.
12 10. Incident Response — Plan de réponse
12.1 Processus de réponse aux incidents
flowchart TD
DETECT["1. Détection\nMonitoring automatique\nAlerte utilisateur\nRapport tiers"] --> CONTAIN["2. Confinement\nIsoler les systèmes affectés\nPrévenir la propagation\nPréserver les preuves"]
CONTAIN --> ASSESS["3. Évaluation\nScope de l'incident\nDonnées compromises ?\nSystèmes affectés ?\nImpact métier ?"]
ASSESS --> NOTIFY["4. Notification\nÉquipe sécurité\nManagement\nDPO / RSSI\nRégulateurs (72h RGPD si données perso)\nPersonnes concernées si requis"]
NOTIFY --> ERADICATE["5. Éradication\nSupprimer le code malveillant\nFermer les vulnérabilités\nRévoquer les accès compromis"]
ERADICATE --> RECOVER["6. Restauration\nRestaurer depuis backups sains\nVérifier l'intégrité\nRetour progressif en production"]
RECOVER --> POSTMORTEM["7. Post-incident\nAnalyse des causes racines\nMise à jour du plan\nAmélioration des contrôles\nDocumentation complète"]
12.2 Types d’incidents spécifiques GenAI
Breach de données via le modèle : - Un utilisateur a réussi à extraire des données confidentielles via des prompts - Action : isoler le système, identifier les données exfiltrées, notifier si données personnelles
Comportement anormal du modèle : - Outputs biaisés, discriminatoires ou dangereux - Action : désactiver temporairement le système, analyser les logs de requêtes, identifier la cause (données d’entraînement ? prompt injection ?)
Compromission d’un compte d’accès : - Credential d’un utilisateur ou d’un service compromis - Action : révoquer immédiatement, analyser les actions effectuées avec ce compte, évaluer l’exposition
Incident chez un vendor IA : - Le provider LLM a subi une breach ou a modifié ses conditions de rétention des données - Action : évaluer l’impact sur vos données, activer les clauses contractuelles, envisager la migration
12.3 Simulation obligatoire
Un plan de réponse aux incidents qui n’a jamais été testé n’est pas un plan — c’est un document. Simuler au minimum une fois par an un scénario de breach réaliste pour votre contexte. Documenter les gaps identifiés et les corriger.
13 11. Compliance réglementaire — Processus continu
flowchart LR
KNOW["Identifier le\npérimètre réglementaire"] --> IMPL["Implémenter politiques\net procédures"]
IMPL --> TRAIN["Former\nles équipes"]
TRAIN --> AUDIT["Audits internes\net externes"]
AUDIT --> RIGHTS["Gérer les droits\ndes personnes concernées"]
RIGHTS --> INCIDENT["Plan de réponse\naux incidents"]
INCIDENT --> DOC["Documentation\net traçabilité"]
DOC --> KNOW
13.1 Exigences spécifiques aux systèmes GenAI
Data privacy — protection GDPR/CCPA, chiffrement, contrôles d’accès, minimisation des données collectées.
Transparence algorithmique — les décisions assistées par le modèle doivent être auditables et explicables. Un utilisateur affecté par une décision IA doit pouvoir en comprendre la logique.
Bias & fairness — processus formel pour identifier et corriger les biais dans les outputs. Revue périodique des décisions du modèle par des humains.
Accountability — rôles clairs pour chaque outcome IA. Qui est responsable si le modèle produit un output problématique ?
Human oversight — pour les décisions à fort impact sur des personnes, un humain doit pouvoir valider ou annuler la décision du modèle.
Consent management — consentement explicite pour la collecte et l’usage des données dans le système IA. Processus de révocation du consentement.
Data anonymization — techniques de dépersonnalisation là où la collecte de données identifiantes n’est pas nécessaire.
Documentation — traçabilité complète du cycle de vie du modèle : données d’entraînement, décisions de conception, versions, modifications.
14 12. User Awareness Training
La sécurité technique ne suffit pas si les utilisateurs ne comprennent pas les risques. La formation est un contrôle de sécurité à part entière.
14.1 Programmes de formation par profil
GenAI Fundamentals — comprendre ce qu’est un LLM, ses capacités et ses limites. Savoir que le modèle peut halluciner, qu’il ne doit pas être utilisé pour des décisions critiques sans vérification humaine.
Security Awareness — reconnaître les tentatives de phishing et d’ingénierie sociale. Comprendre pourquoi on ne colle pas de données sensibles dans un prompt. Savoir quoi faire en cas de suspicion d’incident.
Ethical AI Practices — comprendre les biais dans les systèmes IA et leur impact. Importance de la transparence dans l’utilisation de l’IA. Responsabilité individuelle dans les décisions assistées par IA.
Data Handling & Privacy — techniques de chiffrement et de masquage. Contrôles d’accès et principe du moindre privilège. Anonymisation et pseudonymisation. Gestion sécurisée des credentials et des secrets.
Advanced AI Techniques — architectures de modèles, fine-tuning, évaluation de performances. Détection de biais dans les données d’entraînement. Sécurité des pipelines MLOps.
Troubleshooting & Support — diagnostic des problèmes courants. Procédures d’escalade. Documentation des incidents.
Regulatory Compliance — GDPR, CCPA, HIPAA et réglementations sectorielles. Droits des personnes concernées et obligations de l’organisation. Notification des breaches, délais légaux.
AI Governance — frameworks de gouvernance (NIST AI RMF, EU AI Act). Processus d’approbation et de décommissionnement. Responsabilités dans la chaîne de gouvernance.
14.2 Principes d’une formation efficace
- Mix de méthodes : cours magistraux, labs pratiques, simulations de phishing, exercices de cas
- Feedback et évaluation : tests de validation des acquis, métriques de complétion
- Mise à jour continue : le paysage réglementaire et les menaces évoluent, la formation aussi
- Fréquence : formation initiale à l’intégration + rappels annuels + alertes ad hoc sur les nouvelles menaces
- Collaboration : partage des retours d’expérience entre équipes, culture de la sécurité collective
Mesurer l’efficacité de la formation avec des indicateurs concrets : taux de détection lors de simulations de phishing, nombre d’incidents causés par erreur humaine, taux de complétion des formations obligatoires.
15 Checklist opérationnelle complète
15.1 Cadrage initial
15.2 Politiques de données
15.3 Sécurité technique
15.4 Identity & Access Management
15.5 Approval Process & Registry
15.6 Risk Assessment
15.7 Behavioral Analytics & Monitoring
15.8 Third-Party & Vendors
15.9 Compliance & Audit
15.10 Incident Response
15.11 Formation & Sensibilisation
16 Ce que ce cadre ne remplace pas
Ce document couvre la gouvernance — le quoi encadrer, pourquoi et comment. Il ne remplace pas l’implémentation technique spécifique à votre stack : monitoring IA avec des outils comme Arize ou MLflow, implémentation RBAC dans AWS IAM ou Azure RBAC, détection de biais avec Fairlearn ou AI Fairness 360, pipelines MLOps pour la traçabilité des modèles.
Si vous voulez discuter de l’application de ce cadre à votre contexte, les coordonnées sont sur ce blog.