Intelligence Artificielle

Accueil IA Les risques et la réglementation de l’IA non sécurisée

Depuis la fin de l’année 2022 et courant 2023, l’intelligence artificielle fait partie intégrante de nos vies, avec des systèmes d’IA sécurisés ou non qui progressent à grands pas.

L’IA sécurisée, comme ChatGPT d’OpenAI, est étroitement contrôlée et utilisée via des interfaces Web ou des API. Cependant, l’émergence rapide de puissants systèmes non sécurisés présente des risques importants qui méritent notre attention.

IA non sécurisée – Une préoccupation croissante

Contrairement à leurs homologues sécurisés, ils ne disposent pas de mesures de sécurité robustes et sont facilement sujets à une utilisation abusive. Ces modèles, une fois publiés, peuvent être difficiles à contrôler ou à modifier, ce qui les rend particulièrement dangereux entre les mains d’acteurs malveillants. Leurs menaces englobent divers aspects, notamment la diffusion de fausses informations, l’ingérence électorale, la pornographie truquée et même la facilitation potentielle de matières dangereuses telles que les armes biologiques et chimiques. Pour y faire face, voici un ensemble complet de réglementations qui s’appliquent non seulement à l’IA non sécurisée mais également à celle qui l’est, garantissant l’équité et la sécurité de cette technologie:

Suspendre les nouvelles versions: interrompre la publication de systèmes d’IA non sécurisés jusqu’à ce que les développeurs répondent à des exigences spécifiques, en garantissant que les fonctionnalités de sécurité ne peuvent pas être facilement supprimées.

Enregistrement et licence: mettre en œuvre l’enregistrement et la licence pour les systèmes d’IA au-dessus d’un certain seuil de capacité.

Responsabilité en cas d’utilisation abusive: établir la responsabilité en cas d’utilisation abusive raisonnablement prévisible et de négligence, en tenant les développeurs d’IA responsables des dommages causés aux individus et à la société.

Évaluation des risques et audits indépendants: développer des procédures d’évaluation des risques, d’atténuation et d’audit indépendant pour les systèmes d’IA dépassant le seuil de capacité.

Filigrane et provenance: exigez que le contenu généré par l’IA soit clairement étiqueté et authentifié, avec des métadonnées détaillant sa provenance.

Données de formation transparentes: exiger la transparence concernant les données de formation, en interdisant l’utilisation d’informations personnellement identifiables et de contenus liés à des fins préjudiciables.

Accès des chercheurs: permettre aux chercheurs agréés et aux organisations de la société civile d’accéder aux systèmes d’IA générative à des fins de recherche et de test.

Procédures « Connaissez votre client »: mettez en œuvre des procédures similaires à celles des institutions financières pour la vente de matériel d’IA puissant et de services cloud, en limitant ces dernières si nécessaire.

Divulgation obligatoire des incidents: exiger légalement que les développeurs signalent les vulnérabilités ou les défaillances de leurs systèmes d’IA aux autorités gouvernementales désignées.

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

2 semaines ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

4 semaines ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

4 semaines ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

4 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

4 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

4 semaines ago

This website uses cookies.