Intelligence Artificielle

Intelligence artificielle : les critères nécessaires à la confiance, selon le Conseil d’État

Dans la première partie de notre dossier consacré au rapport du Conseil d’État sur l’intelligence artificielle, nous avons vu comme la haute juridiction faisait un constat tiède sur la situation française. Dans cette deuxième partie, nous nous penchons sur la confiance et les critères essentiels poussés par le Conseil.

Notre dossier sur le rapport du Conseil d’État sur l’intelligence artificielle :

Confiance : LE grand critère pour les SIA

Le cas Parcoursup illustre toute la problématique de la transparence et de sa nécessité pour instaurer la confiance autour de l’intelligence artificielle, au sens très large.

Le rapport du Conseil d’État consacre un chapitre conséquent à ce thème, en commençant par définir ce que lui semblent être ses sept grands principes fondateurs :

  • La primauté humaine
  • La performance
  • L’équité et la non-discrimination
  • La transparence
  • La sûreté (cybersécurité)
  • La soutenabilité environnementale
  • L’autonomie stratégique

Primauté humaine, performance et équité

La primauté humaine est sans doute le critère le plus fondamental. Il assure qu’un algorithme, quel qu’il soit, fonctionne au bénéfice de l’être humain. C’est reconnaitre également qu’il a été créé par des humains, qui en acceptent toute la responsabilité, y compris – surtout ! – ses dysfonctionnements. Dans le cadre du service public, l’intérêt général doit primer, de même que la réversibilité du processus d’automatisation et la chaine clairement identifiée de la responsabilité humaine, impliquant une personne à contacter en cas de problème, et plus généralement la possibilité de parler à un agent si le processus automatique ne donne pas satisfaction.

En matière de satisfaction, la question de la performance est centrale. Elle couvre tous les critères de bon fonctionnement, comme l’exactitude des informations ou résultats. La note de faux positif y est contenue avec toutes les problématiques qu’elle engendre, car elle ne signifie pas la même chose pour un drone de l’armée et alarme anti-incendie. Le système doit être robuste, rapide et doit tendre vers une satisfaction maximale, ce qui suppose un outil d’évaluation par les personnes l’utilisant. Cela implique de minimiser, prévenir et de résoudre rapidement tout dysfonctionnement.

En savoir plus

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

4 jours ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

2 semaines ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

2 semaines ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

2 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

2 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

2 semaines ago

This website uses cookies.