Intelligence Artificielle

Accueil IA Les risques et la réglementation de l’IA non sécurisée

Depuis la fin de l’année 2022 et courant 2023, l’intelligence artificielle fait partie intégrante de nos vies, avec des systèmes d’IA sécurisés ou non qui progressent à grands pas.

L’IA sécurisée, comme ChatGPT d’OpenAI, est étroitement contrôlée et utilisée via des interfaces Web ou des API. Cependant, l’émergence rapide de puissants systèmes non sécurisés présente des risques importants qui méritent notre attention.

IA non sécurisée – Une préoccupation croissante

Contrairement à leurs homologues sécurisés, ils ne disposent pas de mesures de sécurité robustes et sont facilement sujets à une utilisation abusive. Ces modèles, une fois publiés, peuvent être difficiles à contrôler ou à modifier, ce qui les rend particulièrement dangereux entre les mains d’acteurs malveillants. Leurs menaces englobent divers aspects, notamment la diffusion de fausses informations, l’ingérence électorale, la pornographie truquée et même la facilitation potentielle de matières dangereuses telles que les armes biologiques et chimiques. Pour y faire face, voici un ensemble complet de réglementations qui s’appliquent non seulement à l’IA non sécurisée mais également à celle qui l’est, garantissant l’équité et la sécurité de cette technologie:

Suspendre les nouvelles versions: interrompre la publication de systèmes d’IA non sécurisés jusqu’à ce que les développeurs répondent à des exigences spécifiques, en garantissant que les fonctionnalités de sécurité ne peuvent pas être facilement supprimées.

Enregistrement et licence: mettre en œuvre l’enregistrement et la licence pour les systèmes d’IA au-dessus d’un certain seuil de capacité.

Responsabilité en cas d’utilisation abusive: établir la responsabilité en cas d’utilisation abusive raisonnablement prévisible et de négligence, en tenant les développeurs d’IA responsables des dommages causés aux individus et à la société.

Évaluation des risques et audits indépendants: développer des procédures d’évaluation des risques, d’atténuation et d’audit indépendant pour les systèmes d’IA dépassant le seuil de capacité.

Filigrane et provenance: exigez que le contenu généré par l’IA soit clairement étiqueté et authentifié, avec des métadonnées détaillant sa provenance.

Données de formation transparentes: exiger la transparence concernant les données de formation, en interdisant l’utilisation d’informations personnellement identifiables et de contenus liés à des fins préjudiciables.

Accès des chercheurs: permettre aux chercheurs agréés et aux organisations de la société civile d’accéder aux systèmes d’IA générative à des fins de recherche et de test.

Procédures « Connaissez votre client »: mettez en œuvre des procédures similaires à celles des institutions financières pour la vente de matériel d’IA puissant et de services cloud, en limitant ces dernières si nécessaire.

Divulgation obligatoire des incidents: exiger légalement que les développeurs signalent les vulnérabilités ou les défaillances de leurs systèmes d’IA aux autorités gouvernementales désignées.

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…

9 heures ago

Cybersécurité des transports urbains : 123 incidents traités par l’ANSSI en cinq ans

L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…

9 heures ago

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

2 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

3 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

4 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

4 jours ago

This website uses cookies.