Intelligence Artificielle

Responsabilité des IA : les recommandations du bureau européen des unions de consommateurs

Le 2 mai, le Bureau européen des unions de consommateurs (BEUC) a publié une note de synthèse sur la directive sur la responsabilité de l’intelligence artificielle, en cours de discussion au Parlement européen.

Alors qu’une directive sur la responsabilité de l’intelligence artificielle est en cours de discussion au Parlement européen, le Bureau européen des unions de consommateurs (BEUC) a publié le 2 mai 2023 ses propositions (.pdf) pour le texte.

Le BEUC reconnaît les apports de l’IA en matière de services personnalisés, d’applications de réalité augmentée, d’applications dans le domaine de la santé ou encore de véhicules automatisés. En revanche, alerte-t-il, les caractéristiques des systèmes d’intelligence artificielle (IA) « telles que leur complexité, leur opacité, leur autonomie ainsi que le nombre d’acteurs impliqués dans leur cycle de vie » sont telles que « les consommateurs auront du mal à réclamer une compensation » en cas de dommages causés par ces technologies.

Un des enjeux clés pour l’organisation est celui de l’attribution de la responsabilité lorsqu’un problème émerge et qu’un consommateur souffre de dommages créés par un système d’IA. Le document prend l’exemple d’un système utilisé par un assureur qui refuserait de fournir l’assurance demandée par le client à cause de données biaisées ou incorrectes.

Les consommateurs peuvent avoir du mal à identifier les problématiques posées par un tel système : « le refus d’accorder une assurance à un prix inférieur en raison de critères biaisés », par exemple, leur est invisible. De même, pointe le BEUC, « les consommateurs pourraient ne même pas avoir conscience qu’un système d’intelligence artificielle a joué un rôle dans une décision, ni qu’il est la cause du dommage ».

La « directive sur la responsabilité du fait des produits défectueux », ou Product Liability Directive (PLD), remonte à 1985. De fait, reconnaît l’organisme, le cadre européen existant ne permet pas de répondre directement aux enjeux que posent les nouvelles technologies et les systèmes d’IA en particulier.

C’est précisément pour le moderniser que la Commission européenne a adopté en septembre 2022 deux propositions de directives pour adapter les règles de responsabilité civile existantes et en créer de spécifiques à l’intelligence artificielle.

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

3 jours ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

2 semaines ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

2 semaines ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

2 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

2 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

2 semaines ago

This website uses cookies.