Trois questions importantes autour de l’IA

6 août 2024

Voici trois questions soumises à votre sagacité :

  1. Qui a dit : « ChatGPT peut faire des erreurs. Envisagez de vérifier les informations importantes. » ?
  2. Qui a dit : « Gemini n’est pas médecin, avocat ni expert. Même s’il peut vous apporter certaines connaissances, vous ne devez pas vous y fier aveuglément. Si vous avez besoin d’aide ou si une réponse vous paraît incorrecte, adressez-vous à une personne de confiance. » ?
  3. Quels métiers de la confiance peuvent y trouver une opportunité ?

Les trois réponses :

  1. OpenAI, propriétaire de ChatGPT, sur chatpgt.com.
  2. Google, propriétaire de Gemini, sur gemini.google.com/faq?hl=fr.
  3. Les métiers du droit qui garantissent et expertisent les contenus, comme les Commissaires de Justice.

La révolution de l’IA avance vite, très vite. De grandes tendances se dessinent pour les prochains mois. Il faut avoir une conception optimiste et réaliste de l’IA. Elle est un outil qui améliore la productivité et soulage certaines tâches. Il faut savoir la maîtriser et l’utiliser pour les raisons pour lesquelles elle a été conçue. Sinon, elle peut générer des hallucinations.

En IA, qu’est-ce qu’une hallucination ? 

Une hallucination est une réponse incorrecte, inopportune ou fictive de la part d’une IA générative. De surcroît, cette réponse peut être présentée comme authentique. Il faut alors une spécialité et une expertise pour la distinguer d’une donnée réelle et correcte. Ayons aussi à l’esprit qu’une hallucination est différente d’un trucage. Un trucage est un faux produit par la requête d’une personne mal intentionnée et qui est consciente de sa fraude.

Les différents types d’erreurs d’une IA

Une IA peut commettre différents types d’erreurs qui sont à l’origine de ses hallucinations.

  1. Des erreurs factuelles : les informations sur lesquelles l’IA génère ses réponses sont fausses ou arrêtées chronologiquement (dans ce cas, elle ignore les faits postérieurs à une certaine date).
  2. Des erreurs de génération : le contexte est passablement ambigu et l’IA ne parvient pas (encore) à faire la différence entre des notions ou des idées, surtout si la requête (le prompt) était large et imprécise.
  3. Des erreurs de compréhension : un même mot peut avoir plusieurs sens. Il faut encore entraîner l’IA à cette multitude. « Orange » est une couleur, une ville, un fruit, une entreprise, une ancienne principauté.

Le rôle et la place des Commissaires de Justice 

Il faut savoir exploiter l’IA pour ce qu’elle peut faire, l’IA reste un assistant, pas un décideur, pour gagner du temps et pour gagner en productivité sur certaines tâches fastidieuses.

Rien ne remplace l’expertise humaine, et bien au contraire, tout plaide pour renforcer le rôle des métiers de la confiance.

Au printemps dernier, le règlement européen sur l’Intelligence Artificielle a établi un cadre juridique pour le respect des droits fondamentaux, la transparence et le droit à l’innovation dans les usages de ces technologies.

Les praticiens du droit et les métiers de l’exécution ont un rôle renouvelé à condition de maîtriser ces technologies, en sachant ce qu’elles peuvent accomplir et ce qu’on ne peut leur demander. À ce titre, les Commissaires de Justice peuvent montrer la voie dans les métiers du droit et de la confiance.

Grâce à CJ Constats, ils disposent d’un outil conçu pour eux et par eux, et qui est un assistant IA pour dresser constat. Il les assiste dans la partie descriptive pour qu’ils puissent se consacrer pleinement à l’analyse juridique qu’aucune IA ne pourra jamais effectuer. De cette manière, l’ADEC réarme technologiquement les Commissaires de Justice.

Dans le prochain rendez-vous, nous vous expliquerons comment CJ Constats a été construit et continue d’être développé par les femmes et les hommes de l’ADEC en ayant à l’esprit toutes ces considérations, au premier rang desquelles la place et le rôle incontournables des Commissaires de Justice et des Études.