De nouveaux outils d’IA générative apparaissent chaque semaine, presque chaque jour. Dans l’entreprise,  certains collaborateurs apprécient de tester ces nouveaux outils, d’autant plus qu’une version gratuite est généralement disponible. Revers de la médaille : En quelques clics, un salarié peut peut confier des données sensibles à des outils IA. Comment gérer la gouvernance de ces tests sans freiner le virage vers l’IA de l’entreprise ?

Les tests sont rapides, l’accès est ouvert, les données entrent… mais sortent-elles ? Sont-elles tracées ? Protégées ?

Un outil d’IA, aussi ludique ou innovant soit-il, reste un sous-traitant potentiel au sens du RGPD dès qu’il traite des données personnelles pour le compte de l’organisation. Cela implique :

  • D’identifier les outils utilisés et leurs traitements,

  • De formaliser des contrats de sous-traitance (article 28 du RGPD),

  • D’informer les personnes concernées si nécessaire,

  • De documenter les traitements dans le registre RGPD,

  • Et d’assurer une protection effective des données (localisation, sécurité, durée de conservation…).

 

Comment reprendre la main sans brider l’innovation ?

La réponse n’est pas d’interdire toute expérimentation. L’innovation naît aussi de la curiosité terrain. Mais sans cadre, les données personnelles peuvent devenir une monnaie d’échange non maîtrisée.

Voici quelques leviers simples à activer :

Définir une charte d’usage des IA : en posant des règles claires sur les tests autorisés, les données utilisables, et les outils validés.
Centraliser les tests : via un bac à sable technique (sandbox) encadré par la DSI.
Mettre en place une veille interne : pour cartographier les outils utilisés (même de façon marginale).
Créer un “check IA” RGPD rapide : un mini-questionnaire à remplir avant toute utilisation externe d’un outil d’IA.
Encourager les équipes à remonter leurs découvertes : via un canal de partage organisé (et valorisé).

Et notre préconisation préférée :

Mettre à disposition un panel de données “propres” pour les tests
Créer un jeu de données anonymisées ou totalement fictives, représentatives des cas d’usage métiers, pour permettre aux équipes de tester des IA sans aucun risque sur les données personnelles ou confidentielles.

Cette méthode présente de nombreux avantages : 

  1. Côté juridique : vous restez dans les clous du RGPD.
  2. Côté technique : vous sécurisez l’expérimentation.
  3. Côté culture interne : vous montrez que l’innovation est encadrée, pas bridée.
  4. Côté efficacité des tests : les équipes peuvent comparer plus objectivement les outils entre eux.

Nos avocats sont à votre disposition pour vous accompagner face aux défis de l’IA et du RGPD.

La date de publication de cet article est :  17/06/2025 . Des évolutions de la loi ou de la jurisprudence pouvant intervenir régulièrement, n’hésitez pas à nous contacter pour plus d’information. 

By Published On: juin 17th, 2025Categories: IA, InformatiqueCommentaires fermés sur DSI et shadow Ai : comment gérer le RGPD face aux multiples tests de nouveaux outils IA ?

Share This Story, Choose Your Platform!