Les directeurs des systèmes d’information (DSI) et les directeurs juridiques (DJ) font face à une injonction paradoxale. D’un côté, l’intelligence artificielle évolue et fait évoluer tous les outils à une vitesse fulgurante. De l’autre, la réglementation tente de rattraper ces évolutions, mais avec sa part d’incertitudes (la jurisprudence se construit progressivement, par définition). Entre ces deux contraintes, les entreprises ont besoin à la fois de garantir la sécurité sans pour autant freiner les projets de développement.

Un point notable est que le règlement européen sur l’IA adopte une approche basée sur le risque, classant les systèmes d’IA en quatre niveaux : risque inacceptable, risque élevé, risque limité et risque minimal ou nul.

1. Risque inacceptable

Description

Les systèmes d’IA classés comme présentant un risque inacceptable sont strictement interdits. Ils sont considérés comme une menace pour la sécurité, les droits fondamentaux et les valeurs de l’Union européenne.

Exemples

  • Manipulation subliminale : Systèmes qui influencent le comportement humain de manière subliminale pour altérer les actions des personnes.
  • Notation sociale : Systèmes utilisés par les gouvernements pour évaluer la fiabilité des citoyens sur la base de leur comportement social.
  • Surveillance biométrique en temps réel : Utilisation de la reconnaissance faciale dans les espaces publics à des fins répressives, sauf exceptions strictes.

2. Risque élevé

Description

Les systèmes d’IA à risque élevé sont autorisés mais soumis à des exigences strictes avant leur mise sur le marché et durant leur utilisation. Ils peuvent affecter de manière significative les droits fondamentaux ou la sécurité.

Exemples

  • Infrastructures critiques : IA utilisée dans les transports ou l’énergie où une défaillance pourrait être fatale.
  • Éducation et formation : Systèmes qui déterminent l’accès à l’éducation ou évaluent les performances des étudiants.
  • Emploi : Outils de recrutement automatisés ou de gestion des ressources humaines.
  • Services publics essentiels : IA utilisée pour évaluer l’éligibilité aux prestations sociales.
  • Application de la loi : Systèmes prédisant la probabilité qu’une personne commette un crime.

3. Risque limité

Description

Ces systèmes sont soumis à des obligations de transparence. Les utilisateurs doivent être informés qu’ils interagissent avec une IA, ce qui leur permet de prendre des décisions éclairées.

Exemples

  • Chatbots : Assistants virtuels avec lesquels les utilisateurs interagissent.
  • Deepfakes : Contenus générés ou altérés par l’IA qui ressemblent à des médias réels.
  • Reconnaissance d’émotions : Systèmes qui détectent les émotions humaines.

4. Risque minimal ou nul

Description

La majorité des systèmes d’IA entrent dans cette catégorie. Ils présentent un risque minimal ou nul pour les droits ou la sécurité et sont donc librement utilisables sans exigences supplémentaires.

Exemples

  • Filtres anti-spam : IA utilisée pour filtrer les courriers électroniques indésirables.
  • Jeux vidéo : IA intégrée pour améliorer l’expérience de jeu.
  • Applications photos : Filtres et effets améliorés par l’IA.

Nos avocats sont à vos côtés pour vous aider à sécuriser ET à faire avancer vos projets informatiques liés à l’IA.  

La date de publication de cet article est :  02/11/2024 . Des évolutions de la loi ou de la jurisprudence pouvant intervenir régulièrement, n’hésitez pas à nous contacter pour plus d’information. 

By Published On: novembre 2nd, 2024Categories: IA, Informatique, Informatique et libertés, Stratégie juridiqueCommentaires fermés sur Risk management et IA : les 4 niveaux de risque selon le règlement européen sur l’IA

Share This Story, Choose Your Platform!