L’IA générative s’impose dans les outils métiers à une vitesse qui peut donner le tournis à la fois aux directions informatiques et juridiques. Faut-il freiner, encadrer, expérimenter ? Il n’existe pas de solution parfaite, mais il est possible d’articuler efficacité opérationnelle et vigilance.

Voici 6 pistes concrètes, issues de notre veille, pour intégrer l’IA générative sans renoncer à la maîtrise. L’idée n’est pas de lister toutes les bonnes pratiques, mais de proposer quelques idées pour cerner les contours de ces contraintes.

▶️ Mettre en place une politique de journalisation des prompts et réponses

Pour répondre à une obligation de traçabilité, mais aussi d’auditabilité interne ou externe.

▶️ Cartographier les données en sortie de l’IA pour détecter les risques de réidentification

Utile notamment pour les usages type résumé de mails, analyse RH, ou génération de comptes rendus.

▶️ Distinguer les rôles de « responsable de traitement » et « sous-traitant » dans l’usage d’un LLM tiers

Ce point peut paraître une évidence, mais la distinction entre « responsable de traitement » et « sous-traitant » devient décisive lorsqu’on utilise un LLM tiers via API. Les fournisseurs de modèles d’IA peuvent tenter de se positionner en dehors du champ du RGPD, en refusant le statut de sous-traitant. Résultat : en tant qu’entreprise utilisatrice, vous vous retrouvez juridiquement seule face aux risques.

▶️ Creuser dans l’AIPD les cas d’usage indirect de données personnelles
Une IA générative peut traiter des données personnelles sans que ce soit évident : prompts comportant des noms, synthèse de contenus RH, automatisation de courriels.

▶️ Liste blanche ou liste d’interdits pour les usages internes ? Et si la solution était une liste mixte ?
Les expérimentations non encadrées prolifèrent : assistants RH, synthèses de PV, rédaction d’emails… Sans gouvernance, les cas d’usage s’étendent par simple effet d’enthousiasme, favorisant l’agilité, mais augmentant les risques. Un cadre strict avec des cas d’usage validés prévient les dérives mais limite l’innovation. Une solution possible est de faire une série de recommandations pour les usages simples, et une liste blanche d’usages autorisés dans certains domaines sensibles (ressources humaines, juridique, communication de crise… ?).

▶️ Anticiper les demandes de justification humaine dans les décisions augmentées
Même si l’IA ne décide pas seule, certaines chaînes automatisées (ex. : scoring de prospects, sélection de CV) doivent pouvoir faire l’objet d’une justification « compréhensible » par un humain. Prévoir une trace explicable des étapes dans le parcours de traitement est essentiel. Le fonctionnement de l’IA ne le fait pas naturellement, mais on peut lui donner des consignes visant à reconstituer des justifications ayant amené à ces scores.

Nos avocats sont disponibles pour vous accompagner dans la mise en place de vos outils d’IA, vos contrats informatiques et vos contentieux.

La date de publication de cet article est :  09/05/2025 . Des évolutions de la loi ou de la jurisprudence pouvant intervenir régulièrement, n’hésitez pas à nous contacter pour plus d’information. 

By Published On: mai 9th, 2025Categories: assurance cyber, GDPR, IA, RGPDCommentaires fermés sur DSI et DJ : 6 façons d’intégrer l’IA en alliant efficacité opérationnelle et vigilance

Share This Story, Choose Your Platform!