Le règlement européen sur l’intelligence artificielle (IA) établit une classification des systèmes d’IA basée sur le risque, allant des risques minimaux aux risques dits « inacceptables ». Cette dernière catégorie, qui regroupe les systèmes interdits en raison de leur impact sur les droits fondamentaux, la sécurité et les valeurs de l’Union européenne, soulève des enjeux cruciaux pour les entreprises et les institutions. Mais que signifie réellement ce terme, et quels systèmes sont concernés ?
Risque inacceptable : une menace pour les droits fondamentaux
Les systèmes d’IA qualifiés de « risques inacceptables » sont ceux qui, par leur nature ou leur utilisation, sont jugés incompatibles avec les valeurs fondamentales de l’Union européenne. Ces systèmes sont strictement interdits et ne peuvent en aucun cas être mis sur le marché.
Ils se distinguent par leur potentiel à :
- Menacer la sécurité des personnes.
- Porter atteinte aux droits fondamentaux, comme la liberté d’expression ou la protection des données.
- Porter atteinte aux valeurs démocratiques et à la dignité humaine.
Exemples de systèmes d’IA interdits
- Manipulation subliminale
Les systèmes qui exploitent les faiblesses humaines de manière subliminale pour influencer les comportements, comme des publicités ciblées à des niveaux imperceptibles, sont interdits. - Notation sociale
Directement inspirée de certains modèles étatiques, la notation sociale consiste à évaluer les citoyens en fonction de leur comportement ou de leur réputation. Ce type de système est interdit dans l’Union européenne, car il porte atteinte à la dignité et à l’autonomie individuelle. - Surveillance biométrique en temps réel
La reconnaissance faciale et autres formes de surveillance biométrique utilisées dans les espaces publics à des fins répressives, sauf exceptions strictes, sont également prohibées.
Les impacts pour les entreprises et les institutions
Pour les acteurs économiques, comprendre et identifier ces risques inacceptables est une étape essentielle du management des risques. Cela implique :
- Une vigilance accrue lors du développement de nouvelles technologies : Les entreprises doivent s’assurer que leurs systèmes ne tombent pas dans cette catégorie interdite.
- Des audits réguliers : Évaluer les impacts des outils IA sur les droits fondamentaux et s’assurer de leur conformité.
- Une responsabilité éthique : Adopter des approches respectueuses des valeurs européennes, même en l’absence de risques réglementaires immédiats.
Evaluer aussi les possibilités d’utilisations détournées
Un système d’IA conçu pour une application bénigne peut, sous certaines conditions, être détourné de manière inattendue, avec des conséquences significatives. Par exemple, un chatbot développé pour améliorer le service client pourrait, par manipulation ou apprentissage mal encadré, être utilisé pour diffuser de la désinformation automatisée ou des contenus discriminatoires. Dans ce cas, l’objectif initial – simplifier les interactions avec les utilisateurs – est détourné pour des fins nuisibles, notamment en raison de failles dans les contrôles ou de l’absence de limites imposées à l’apprentissage de l’IA.
Pour toute question sur la conformité de vos projets ou solutions IA, les avocats de Nouveaumonde Avocats vous accompagnent dans la sécurisation de vos démarches, tout en facilitant le développement de vos projets numériques.
La date de publication de cet article est : 17/01/2025 . Des évolutions de la loi ou de la jurisprudence pouvant intervenir régulièrement, n’hésitez pas à nous contacter pour plus d’information.