Masquer les données sensibles dans ChatGPT : Solutions techniques pour DPO (2025)
Trois catégories de solutions existent pour masquer les données sensibles avant l'envoi vers ChatGPT : les extensions navigateur avec analyse locale (comme Veil-it, déploiement 15 minutes, zéro latence), les proxies API d'entreprise (latence 50-200ms, architecture complexe), et l'anonymisation manuelle (formation utilisateur, risque d'erreur humaine). Pour la conformité RGPD Art. 32 et AI Act Art. 4, Veil-it offre une protection technique automatique : détection en temps réel des PII (emails, téléphones, IBAN, noms), analyse sémantique 100% locale dans le navigateur, et traçabilité complète pour l'audit.
Pourquoi les DPO doivent agir maintenant sur ChatGPT
En tant que responsable de la protection des données, vous faites face à une équation complexe : vos collaborateurs utilisent ChatGPT pour gagner en productivité, mais chaque prompt contenant des données personnelles vous expose à un risque juridique.
Le problème technique invisible
Les outils de sécurité traditionnels ne détectent pas ces fuites :
- Firewall : Voit du trafic HTTPS vers openai.com (domaine légitime), ne bloque rien
- DLP réseau : Aveugle sur le contenu chiffré des requêtes HTTPS
- Proxy SSL : Peut inspecter le trafic mais ne distingue pas les données sensibles dans les prompts
Cas réel observé : Un collaborateur copie-colle un tableau Excel avec 3 000 adresses emails clients dans ChatGPT pour "nettoyer les doublons". Le firewall n'a rien détecté. Le DPO l'a découvert 6 mois plus tard lors d'un audit.
L'exposition juridique croissante
Depuis février 2025, le cadre légal s'est durci :
| Réglementation | Obligation | Sanction |
|---|---|---|
| RGPD Art. 32 | Mesures techniques de sécurité appropriées | Jusqu'à 20M€ ou 4% CA mondial |
| RGPD Art. 25 | Privacy by Design et by Default | Idem |
| AI Act Art. 4 | Littératie IA des utilisateurs | Sanctions administratives |
| CNIL | Transparence sur l'usage des données | Mise en demeure publique |
Point clé pour les DPO : L'Article 5.2 du RGPD impose un principe d'accountability. Vous devez pouvoir démontrer les mesures mises en place. "On a envoyé un email de sensibilisation" n'est plus suffisant.
Types de données sensibles à risque avec ChatGPT
En tant que DPO, vous devez classifier les données selon leur niveau de risque. Voici la taxonomie observée sur le terrain.
1. Données personnelles (PII - Personally Identifiable Information)
Risque RGPD : Article 4.1 (définition des données personnelles)
| Type de donnée | Exemples | Détection automatique possible |
|---|---|---|
| Identité directe | Nom, prénom, date de naissance | Oui (regex + NER) |
| Coordonnées | Email, téléphone, adresse postale | Oui (patterns) |
| Identifiants | N° Sécurité Sociale, IBAN, passeport | Oui (formats normalisés) |
| Données de géolocalisation | Adresse IP, coordonnées GPS | Oui (patterns) |
Cas d'usage à risque :
- "Voici la liste de nos clients [copie-colle d'un CRM]"
- "Aide-moi à rédiger un email à Jean Dupont, directeur de [entreprise]"
- "Reformule ce contrat pour Mme Martin, née le 15/03/1978"
2. Données financières et commerciales
Risque : Secret des affaires + RGPD si liées à des personnes
| Type de donnée | Exemples | Impact business |
|---|---|---|
| Données financières | IBAN, revenus, marges, salaires | Risque bancaire + RH |
| Secrets commerciaux | Tarifs négociés, roadmaps produits | Avantage concurrentiel perdu |
| Stratégie | Fusions/acquisitions en cours | Délit d'initié potentiel |
Cas d'usage à risque :
- "Analyse ce fichier de résultats financiers Q4"
- "Voici nos prix de vente par client, peux-tu identifier des anomalies ?"
3. Propriété intellectuelle et code source
Risque : Fuite IP + violation licences open source
| Type de donnée | Exemples | Détection automatique |
|---|---|---|
| Code propriétaire | Algorithmes métier, APIs internes | Oui (détection de code) |
| Secrets techniques | Clés API, tokens, credentials | Oui (patterns) |
| Brevets en cours | Descriptions techniques non publiées | Non (contexte) |
Cas d'usage à risque :
- "Voici notre algorithme de pricing, peux-tu l'optimiser ?"
- "Debug ce code [avec des noms de variables clients]"
4. Données RH sensibles
Risque : Article 9 RGPD (données sensibles) + Code du travail
| Type de donnée | Exemples | Niveau de protection |
|---|---|---|
| Évaluations | Entretiens annuels, feedbacks | Confidentiel strict |
| Données médicales | Arrêts maladie, handicap | Art. 9 RGPD (interdit) |
| Données syndicales | Appartenance syndicale | Art. 9 RGPD (interdit) |
Cas d'usage à risque :
- "Rédige une synthèse de cet entretien annuel de Sophie"
- "Analyse les arrêts maladie de l'équipe pour identifier des tendances"
Comparatif des solutions de masquage
En tant que DPO, vous avez trois approches techniques. Voici leur comparaison objective.
Tableau comparatif complet
| Critère | Anonymisation manuelle | Proxy API entreprise | Extension navigateur (Veil-it) |
|---|---|---|---|
| Latence ajoutée | 0ms (manuel) | 50-200ms | 0ms (local) |
| Souveraineté données | Dépend de l'utilisateur | Hébergement contrôlé | 100% local navigateur |
| Temps de déploiement | Immédiat (formation) | 4-12 semaines | 15 minutes (MDM) |
| Coût annuel (100 utilisateurs) | Faible (formation) | 15-50k€ | 3-8k€ |
| Contrôle DPO | Faible (humain) | Total (centralisé) | Élevé (politique centralisée) |
| Taux de faux positifs | N/A | 5-15% | <2% (ML contextuel) |
| Conformité RGPD Art. 32 | Risque d'erreur humaine | Oui | Oui |
| Traçabilité audit | Manuelle (logs) | Complète | Complète (dashboard) |
| Friction utilisateur | Élevée (ralentit le travail) | Moyenne (latence) | Faible (transparent) |
| Scalabilité | Limitée (humain) | Élevée | Élevée |
Option 1 : Anonymisation manuelle (formation utilisateur)
Principe : Former les utilisateurs à identifier et masquer manuellement les données sensibles avant envoi.
Avantages :
- Coût initial faible
- Pas d'infrastructure technique
- Sensibilise les équipes
Inconvénients critiques pour un DPO :
- Erreur humaine garantie : Un employé fatigué oublie un email dans le texte
- Non-démontrable : Comment prouver la conformité lors d'un audit CNIL ?
- Scalabilité nulle : Chaque nouveau collaborateur = nouvelle formation
- Friction élevée : Les utilisateurs trouvent des contournements
Verdict DPO : Ne satisfait pas l'exigence de "mesures techniques appropriées" du RGPD Art. 32. À compléter par une solution technique.
Option 2 : Proxy API d'entreprise (CASB, DLP cloud)
Principe : Toutes les requêtes vers les APIs d'IA passent par un proxy qui analyse et filtre le contenu.
Exemples : Solutions CASB (Cloud Access Security Broker) type Netskope, Zscaler, ou proxies custom.
Avantages :
- Contrôle centralisé total
- Analyse approfondie possible
- Compatible avec tout type de client (navigateur, mobile, API)
Inconvénients critiques :
- Latence perceptible : 50-200ms ajoutés sur chaque requête (frustration utilisateur)
- Complexité SSL : Nécessite d'installer des certificats sur tous les postes
- Coût élevé : Licences + infrastructure + maintenance
- Déploiement long : 4-12 semaines (architecture réseau à modifier)
Cas d'usage pertinent : Grandes entreprises (>5 000 utilisateurs) avec équipe infrastructure dédiée.
Option 3 : Extension navigateur avec analyse locale (Veil-it)
Principe : Extension Chrome/Edge déployée via MDM qui analyse le DOM en temps réel avant envoi.
Architecture technique :
- Analyse locale : Le texte est scanné dans le navigateur (pas d'envoi vers un serveur tiers)
- Détection sémantique : Modèle ML embarqué (emails, téléphones, IBAN, noms, code)
- Interception pré-API : Les données sont masquées AVANT d'atteindre l'API OpenAI
- Traçabilité : Métadonnées d'alertes envoyées au dashboard DPO (pas le contenu)
Avantages pour un DPO :
- Zéro latence : Analyse locale, aucun ralentissement
- Privacy by Design : Les prompts ne quittent jamais le navigateur (sauf vers l'IA de destination)
- Déploiement rapide : 15 minutes via Microsoft Intune ou Google Workspace
- Traçabilité complète : Dashboard avec alertes, tentatives bloquées, taux d'adoption
- Formation Just-in-Time : L'utilisateur voit une alerte contextuelle quand il fait une erreur (conformité AI Act Art. 4)
Inconvénients :
- Limité au navigateur (ne couvre pas les appels API directs des développeurs)
- Nécessite une extension par navigateur (Chrome, Edge, Firefox)
Verdict DPO : Meilleur ratio protection/friction pour 90% des cas d'usage (interface web ChatGPT).
Comment fonctionne le masquage en temps réel (architecture technique)
En tant que DPO, vous devez comprendre l'architecture pour évaluer la conformité.
Flux de données avec Veil-it
1. Utilisateur tape un prompt avec un email
↓
2. Extension Veil-it intercepte la saisie (DOM observation)
↓
3. Analyse sémantique locale (modèle ML embarqué)
↓
4. Détection : "[email protected]" → PII
↓
5. Options :
a) Alerte + blocage (mode strict)
b) Alerte + masquage automatique → "contact@[REDACTED].com"
c) Alerte + envoi (mode formation)
↓
6. Métadonnée envoyée au dashboard DPO : "Alerte PII - email détecté"
↓
7. Prompt masqué envoyé à l'API OpenAI
Technologies de détection
| Type de donnée | Méthode de détection | Taux de précision |
|---|---|---|
Regex [a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,} |
99.8% | |
| Téléphone FR | Regex (\+33|0)[1-9](\d{2}){4} |
98.5% |
| IBAN | Regex + validation checksum | 99.9% |
| Noms/Prénoms | NER (Named Entity Recognition) + dictionnaires | 92-96% |
| Code source | Détection syntaxe + patterns API keys | 94% |
| Numéro SS | Regex format INSEE + validation clé | 99.5% |
Point technique critique : L'analyse est 100% locale. Le modèle ML (fichier .wasm de ~8 Mo) est téléchargé une fois dans l'extension. Aucun prompt n'est envoyé vers un serveur Veil-it pour analyse. Seules les métadonnées d'alertes sont transmises (pour le dashboard DPO).
Preuve de conformité Privacy by Design (RGPD Art. 25)
Pour un DPO, la question clé est : "Comment je prouve que les données ne quittent pas le navigateur ?"
Éléments de preuve techniques :
- Code open source : Architecture vérifiable par audit externe
- Analyse réseau : Aucune requête vers api.veil-it.com contenant du texte utilisateur
- Certification : ISO 27001 (en cours) + audit CNIL-ready
- Architecture vérifiable : Logs réseau montrent uniquement des appels d'alertes (JSON avec métadonnées)
Conformité RGPD et AI Act : obligations du DPO
Checklist de conformité pour les DPO
| Obligation | Base légale | Solution technique | Démonstration |
|---|---|---|---|
| Mesures techniques de sécurité | RGPD Art. 32 | Masquage automatique PII | Dashboard alertes bloquées |
| Privacy by Design | RGPD Art. 25 | Analyse locale sans cloud tiers | Audit réseau |
| Littératie IA utilisateurs | AI Act Art. 4 | Formation Just-in-Time | Logs alertes vues/acquittées |
| Registre des traitements | RGPD Art. 30 | Inventaire outils IA utilisés | Export dashboard usage |
| Accountability | RGPD Art. 5.2 | Traçabilité complète | Audit trail |
Cas pratique : Réponse à un audit CNIL
Question CNIL : "Quelles mesures techniques avez-vous mises en place pour empêcher la fuite de données personnelles vers ChatGPT ?"
Réponse insuffisante :
"Nous avons formé nos collaborateurs à ne pas envoyer de données sensibles."
Réponse conforme (avec Veil-it) :
"Nous avons déployé une solution de masquage automatique via extension navigateur :
- Détection en temps réel des PII (emails, téléphones, IBAN, noms) avant envoi vers toute IA
- Analyse locale Privacy by Design : aucun prompt ne transite par un cloud tiers
- Traçabilité complète : 127 alertes PII bloquées sur les 3 derniers mois (voir annexe dashboard)
- Formation Just-in-Time : 89% des utilisateurs ayant reçu une alerte n'ont pas réitéré l'erreur
- Politique d'usage documentée : disponible en annexe, version du 12/01/2025"
Formation Just-in-Time : conformité AI Act Art. 4
L'Article 4 de l'AI Act impose une "littératie IA suffisante" des utilisateurs. Mais comment démontrer que la formation est effective ?
Approche traditionnelle (insuffisante) :
- Session de formation 1h tous les 6 mois
- Email de rappel trimestriel
- Quiz de validation
Problème : Taux d'oubli de 70% après 1 semaine (courbe de l'oubli d'Ebbinghaus).
Approche Just-in-Time (Veil-it) :
- L'utilisateur voit une alerte au moment exact où il fait une erreur
- Message contextuel : "Ce texte contient un email. Selon la politique IA de l'entreprise, utilisez [outil approuvé] ou anonymisez."
- Taux de mémorisation x3 (formation au moment du besoin)
- Preuve de formation : logs d'alertes vues et acquittées
Démonstration pour l'audit :
- Export des 500 dernières alertes
- Taux d'acquittement : 94%
- Taux de récidive : 6% (utilisateurs ayant ignoré l'alerte plusieurs fois → formation ciblée)
Critères d'évaluation pour choisir une solution (grille DPO)
En tant que DPO, voici les questions à poser aux éditeurs de solutions.
1. Souveraineté et hébergement des données
| Question | Pourquoi c'est critique | Red flag |
|---|---|---|
| Où sont hébergés les serveurs d'analyse ? | Cloud Act, RGPD Art. 44 (transferts hors UE) | "Serveurs AWS US-East" |
| Les prompts sont-ils envoyés vers vos serveurs ? | Privacy by Design | "Nous analysons dans le cloud pour améliorer la détection" |
| Quelle juridiction s'applique ? | Droit applicable en cas de litige | "Société de droit Delaware" |
Réponse Veil-it :
- Analyse 100% locale dans le navigateur (rien n'est envoyé)
- Dashboard hébergé en France (OVH)
- Société de droit français (RGPD pleinement applicable)
2. Performance et adoption utilisateur
| Question | Pourquoi c'est critique | Red flag |
|---|---|---|
| Quelle latence ajoutée sur les requêtes ? | Friction = contournement | ">100ms" |
| Temps de déploiement sur 500 postes ? | Time-to-value | ">2 semaines" |
| Taux de faux positifs ? | Alerte fatigue → désactivation | ">5%" |
Réponse Veil-it :
- Latence : 0ms (analyse locale asynchrone)
- Déploiement : 15 minutes via MDM (Microsoft Intune, Google Workspace)
- Faux positifs : <2% (ML contextuel)
3. Traçabilité et gouvernance
| Question | Pourquoi c'est critique | Red flag |
|---|---|---|
| Dashboard temps réel pour le DPO ? | Visibilité sur les risques | "Export CSV hebdomadaire" |
| Export des logs pour audit ? | Accountability RGPD Art. 5.2 | "Logs conservés 7 jours" |
| Alertes personnalisables par département ? | Politique adaptée aux métiers | "Règles globales uniquement" |
Réponse Veil-it :
- Dashboard live avec filtres par département/utilisateur/type de donnée
- Export CSV/JSON illimité (rétention 12 mois)
- Règles personnalisables par profil (développeurs ≠ RH ≠ finance)
4. Conformité réglementaire
| Question | Pourquoi c'est critique | Red flag |
|---|---|---|
| Certification ISO 27001 ? | Garantie processus sécurité | "En cours depuis 3 ans" |
| Audit RGPD externe ? | Validation conformité | "Auto-évaluation interne" |
| DPO identifié et contactable ? | Obligation RGPD Art. 37 | "Pas de DPO" |
Réponse Veil-it :
- ISO 27001 en cours (certification Q2 2025)
- Audit RGPD externe annuel
- DPO : [email protected]
Guide d'implémentation pour les DPO (étapes concrètes)
Vous êtes convaincu de la nécessité d'une solution technique. Voici le plan de déploiement en 4 semaines.
Semaine 1 : Audit et cadrage
Objectif : Cartographier l'existant et définir le périmètre.
Actions :
Audit Shadow AI (2h)
- Analyser les logs DNS : quels domaines IA sont contactés ? (openai.com, claude.ai, gemini.google.com...)
- Sonder les équipes (anonymement) : qui utilise quoi ?
- Identifier les "power users" qui peuvent devenir ambassadeurs
Classification des données (1 jour)
- Lister les types de données manipulées par département
- Appliquer la grille Public / Interne / Confidentiel / Sensible (Art. 9)
- Identifier les cas d'usage à risque prioritaires
Définir la politique (2 jours)
- Rédiger la matrice outils/données autorisés
- Valider avec la direction et le RSSI
- Préparer la communication interne
Livrables :
- Cartographie Shadow AI (Excel)
- Politique d'usage IA v1.0 (document validé)
- Matrice de risques par département
Semaine 2 : Choix technique et PoC
Objectif : Sélectionner la solution et tester sur un groupe pilote.
Actions :
Benchmark solutions (2 jours)
- Comparer 3 solutions (proxy API, extension navigateur, DLP réseau)
- Grille d'évaluation : souveraineté, latence, coût, déploiement
- Présentation au comité de direction
PoC sur 20 utilisateurs (3 jours)
- Déployer l'extension sur un groupe test (idéalement support client + développeurs)
- Mesurer : taux de détection, faux positifs, retours utilisateurs
- Ajuster les règles de détection
Livrables :
- Rapport de benchmark (3 solutions comparées)
- Résultats PoC (métriques + feedback)
- Validation budget
Semaine 3 : Déploiement et formation
Objectif : Déployer à l'ensemble des utilisateurs et former les équipes.
Actions :
Déploiement MDM (1 jour)
- Pousser l'extension via Microsoft Intune ou Google Workspace
- Configurer les règles par profil (développeurs, RH, finance, support)
- Activer le mode "formation" (alertes sans blocage) pendant 1 semaine
Communication interne (2 jours)
- Email de lancement (pourquoi, comment, à qui s'adresser en cas de question)
- Vidéo tutoriel 3 minutes (comment fonctionne l'extension)
- FAQ dans l'intranet
Formation ambassadeurs (1 jour)
- Session 1h avec les "power users" identifiés
- Leur donner les clés pour répondre aux questions de leurs collègues
- Créer un canal Slack/Teams "Support IA"
Livrables :
- Extension déployée sur 100% des postes
- Support interne opérationnel
- Mode "formation" actif
Semaine 4 : Activation et monitoring
Objectif : Passer en mode "protection" et monitorer l'adoption.
Actions :
Activation du blocage (jour 22)
- Passer du mode "alerte" au mode "blocage" pour les données sensibles (IBAN, SS, données santé)
- Conserver le mode "alerte" pour les données modérément sensibles (emails, téléphones)
Monitoring quotidien (semaine 4)
- Dashboard DPO : vérifier les alertes, identifier les départements à risque
- Ajuster les règles si taux de faux positifs >5%
- Contacter individuellement les utilisateurs en récidive
Revue hebdomadaire (chaque lundi)
- Réunion 30 min avec RSSI et DSI
- KPIs : taux d'adoption, alertes bloquées, incidents évités, satisfaction utilisateurs
Livrables :
- Protection active sur 100% des postes
- Dashboard DPO configuré
- Process de revue hebdomadaire installé
Mois 2-3 : Optimisation
Actions continues :
- Ajuster les règles de détection selon les retours terrain
- Former les nouveaux arrivants (onboarding)
- Préparer l'audit (export des logs, documentation)
Erreurs courantes des DPO (et comment les éviter)
Erreur 1 : Attendre un incident pour agir
Symptôme : "On verra si un problème arrive."
Risque : La CNIL peut sanctionner l'absence de mesures techniques avant l'incident (RGPD Art. 32).
Solution : Appliquer le principe de précaution. Le déploiement d'une extension prend 15 minutes. Le risque de fuite existe dès aujourd'hui.
Erreur 2 : Compter uniquement sur la formation humaine
Symptôme : "On a formé les équipes, ça suffit."
Risque : L'erreur humaine est inévitable (fatigue, pression, manque de temps). Un seul email oublié dans un prompt = violation RGPD.
Solution : Formation + protection technique. L'humain n'est pas fiable à 100%.
Erreur 3 : Choisir une solution trop restrictive
Symptôme : Blocage total de ChatGPT → frustration → Shadow AI sur mobile.
Risque : Les utilisateurs trouvent des contournements (ChatGPT sur smartphone, DeepSeek, LLaMA local...).
Solution : Approche "guiderails" : autoriser avec protection, pas bloquer aveuglément.
Erreur 4 : Ne pas documenter pour l'audit
Symptôme : "On a déployé l'outil, c'est bon."
Risque : Lors d'un audit CNIL, vous devez démontrer la conformité. Pas d'exports = pas de preuve.
Solution : Exporter les métriques trimestriellement (alertes, blocages, formation). Archiver dans le registre des traitements.
Erreur 5 : Oublier les appels API directs
Symptôme : Protection navigateur uniquement.
Risque : Les développeurs appellent l'API OpenAI directement depuis leur code (pas dans le navigateur).
Solution : Compléter par des règles réseau (firewall) ou un proxy API pour les développeurs. Politique spécifique pour les usages techniques.
Résultats attendus à 3 mois (KPIs pour les DPO)
| KPI | Objectif à 3 mois | Comment mesurer |
|---|---|---|
| Taux de déploiement | 100% des postes | Dashboard MDM |
| Alertes PII détectées | >50 (preuves de détection) | Dashboard Veil-it |
| Données sensibles bloquées | >10 (incidents évités) | Dashboard (filtre IBAN, SS, santé) |
| Taux de faux positifs | <3% | Tickets support / dashboard |
| Satisfaction utilisateurs | >7/10 | Sondage trimestriel |
| Temps de résolution incident | <4h (si alerte ignorée) | Logs tickets |
| Conformité audit | 100% (checklist validée) | Auto-évaluation DPO |
ROI pour le DPO :
- Coût solution : 3-8k€/an pour 100 utilisateurs
- Coût d'une violation RGPD : Amende moyenne CNIL 2024 = 240k€ (source CNIL)
- Coût opportunité : Temps DPO économisé (pas de gestion de crise) = 10-20 jours/an
Ce qu'il faut retenir (TL;DR pour les DPO)
Le problème est invisible : Vos firewalls ne détectent pas les fuites de PII vers ChatGPT (trafic HTTPS chiffré vers domaine légitime).
Trois solutions existent :
- Anonymisation manuelle (risque d'erreur humaine, non conforme RGPD Art. 32)
- Proxy API entreprise (conformité maximale mais coût/latence élevés)
- Extension navigateur locale (meilleur ratio protection/friction pour 90% des cas)
Conformité RGPD/AI Act :
- RGPD Art. 32 : mesures techniques obligatoires
- AI Act Art. 4 : formation utilisateurs démontrable
- Accountability (Art. 5.2) : traçabilité complète
Architecture Veil-it :
- Analyse 100% locale (Privacy by Design)
- Détection en temps réel (emails, téléphones, IBAN, noms, code)
- Formation Just-in-Time (alertes contextuelles)
- Dashboard DPO (traçabilité complète)
Déploiement en 4 semaines :
- Semaine 1 : Audit Shadow AI + politique
- Semaine 2 : PoC sur 20 utilisateurs
- Semaine 3 : Déploiement MDM + formation
- Semaine 4 : Activation protection + monitoring
KPIs à 3 mois :
- 100% des postes protégés
50 alertes PII détectées (preuve d'efficacité)
- <3% faux positifs (pas d'alerte fatigue)
- Conformité audit validée
Références et sources officielles
- RGPD - Règlement (UE) 2016/679 - Règlement général sur la protection des données
- RGPD Art. 32 - Sécurité du traitement - Obligation de mesures techniques de sécurité
- RGPD Art. 25 - Protection des données dès la conception - Privacy by Design et by Default
- AI Act - Règlement (UE) 2024/1689 - Règlement européen sur l'intelligence artificielle
- AI Act Art. 4 - Littératie en matière d'IA - Obligation de formation des utilisateurs
- CNIL - Intelligence artificielle - Recommandations de la CNIL sur l'IA
- CNIL - Sanctions - Historique des sanctions prononcées
- ANSSI - Sécurité IA - Recommandations de l'agence nationale de cybersécurité