Le RIA : un cadre juridique pour l’IA

19 août 2024

Toute législation sur l’IA devrait garantir que l’on peut faire confiance à une IA. Dans cette perspective, le Règlement européen sur l’Intelligence artificielle (RIA) est entré en vigueur le 1er août dernier. Échelonné, il sera pleinement applicable en 2026.

Premier cadre juridique complet sur l’IA dans le monde, ce texte important contient un ensemble de normes pour le développement et l’utilisation des technologies d’Intelligence Artificielle (IA). Les métiers du droit concernés par l’IA comme matière juridique et/ou outil professionnel y sont donc particulièrement attentifs. Ainsi nous a-t-il paru important de soumettre à votre attention les tenants et les aboutissants de ce RIA.

Vers une lA digne de confiance 

La technologie n’attend jamais le droit. Les relations entre la technologie et le droit sont à l’image d’une laisse de rappel : laisser filer et retenir. Un cadre juridique devait être posé dans lequel les technologies de l’IA peuvent évoluer. Aujourd’hui, ce cadre juridique permet de répondre à la question de savoir quelle législation est applicable en matière d’IA, en France et en Europe.

À un moment où les nouvelles technologies paraissent s’affranchir de toutes les limites, le niveau normatif européen a voulu définir une IA digne de confiance, c’est-à-dire celle qui respecte les droits fondamentaux, la sécurité, la confiance et les principes éthiques.

Une approche par les risques 

Le RIA propose que les IA soient analysées et classées en fonction du risque qu’elles représentent pour les utilisateurs. Plus le risque est élevé, plus la réglementation est exigeante. Le règlement avance quatre niveaux de risque :

  1. Un risque inacceptable : en ce qu’il porte une menace claire contre la sécurité, les droits fondamentaux, ce type d’IA est interdit.
  2. Le haut risque : il qualifie les IA utilisées dans les domaines des droits fondamentaux des personnes ou les processus démocratiques. Ces IA sont alors soumises à des obligations strictes et à des autorisations limitées.
  3. Le risque en matière de transparence : il introduit des obligations renforcées en matière d’information et de documentation aux utilisateurs, il alerte sur les risques de manipulation.
  4. Le risque minimal ou nul : il concerne la plus grande partie des IA actuellement disponibles et utilisées dans l’Union Européenne.

Cependant, ces niveaux classaient difficilement les IA génératives qui assurent un grand nombre de tâches, comme les LLM ou les systèmes proposés par OpenAI ou Mistral AI. Aussi, une nouvelle catégorie qui concerne les modèles d’IA à usage général a-t-elle été ouverte. Elle établit pour ces modèles différents niveaux d’obligation depuis des dispositions en matière de transparence et d’information aux utilisateurs jusqu’à des limites strictes concernant les résultats et les pratiques en matière de respect des droits fondamentaux.

L’intérêt pour l’activité des Études 

En somme, le RIA, à l’image du RGPD qu’il complète, impose aux développeurs et responsables d’IA des exigences et des obligations claires. Il est de la responsabilité et de l’avenir des métiers du droit et de la confiance d’être en première ligne pour l’application et l’évolution de ce cadre juridique.

Ce cadre juridique confirme le parti-pris de l’ADEC depuis le début de son travail sur l’IA pour servir les activités des Études et les intérêts des Commissaires de Justice : il faut savoir exploiter l’IA pour ce qu’elle peut faire.

Une IA est un assistant pour gagner du temps et pour gagner en productivité sur certaines tâches fastidieuses, afin de se consacrer pleinement à des activités intellectuelles profondes – comme l’analyse juridique, le conseil et l’accompagnement – qu’aucune IA ne pourra jamais effectuer, à l’image de CJ Constats.

Dans ce cadre et ce contexte, tout plaide pour renforcer le rôle des métiers de la confiance au sein desquels les Commissaires de Justice anticipent et peuvent montrer la voie.