Intelligence Artificielle

Responsabilité des IA : les recommandations du bureau européen des unions de consommateurs

Le 2 mai, le Bureau européen des unions de consommateurs (BEUC) a publié une note de synthèse sur la directive sur la responsabilité de l’intelligence artificielle, en cours de discussion au Parlement européen.

Alors qu’une directive sur la responsabilité de l’intelligence artificielle est en cours de discussion au Parlement européen, le Bureau européen des unions de consommateurs (BEUC) a publié le 2 mai 2023 ses propositions (.pdf) pour le texte.

Le BEUC reconnaît les apports de l’IA en matière de services personnalisés, d’applications de réalité augmentée, d’applications dans le domaine de la santé ou encore de véhicules automatisés. En revanche, alerte-t-il, les caractéristiques des systèmes d’intelligence artificielle (IA) « telles que leur complexité, leur opacité, leur autonomie ainsi que le nombre d’acteurs impliqués dans leur cycle de vie » sont telles que « les consommateurs auront du mal à réclamer une compensation » en cas de dommages causés par ces technologies.

Un des enjeux clés pour l’organisation est celui de l’attribution de la responsabilité lorsqu’un problème émerge et qu’un consommateur souffre de dommages créés par un système d’IA. Le document prend l’exemple d’un système utilisé par un assureur qui refuserait de fournir l’assurance demandée par le client à cause de données biaisées ou incorrectes.

Les consommateurs peuvent avoir du mal à identifier les problématiques posées par un tel système : « le refus d’accorder une assurance à un prix inférieur en raison de critères biaisés », par exemple, leur est invisible. De même, pointe le BEUC, « les consommateurs pourraient ne même pas avoir conscience qu’un système d’intelligence artificielle a joué un rôle dans une décision, ni qu’il est la cause du dommage ».

La « directive sur la responsabilité du fait des produits défectueux », ou Product Liability Directive (PLD), remonte à 1985. De fait, reconnaît l’organisme, le cadre européen existant ne permet pas de répondre directement aux enjeux que posent les nouvelles technologies et les systèmes d’IA en particulier.

C’est précisément pour le moderniser que la Commission européenne a adopté en septembre 2022 deux propositions de directives pour adapter les règles de responsabilité civile existantes et en créer de spécifiques à l’intelligence artificielle.

Source

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

3 semaines ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

3 semaines ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

3 semaines ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

3 semaines ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

3 semaines ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

3 semaines ago

This website uses cookies.