Accueil IA Les risques et la réglementation de l’IA non sécurisée

financial services
financial services

Depuis la fin de l’année 2022 et courant 2023, l’intelligence artificielle fait partie intégrante de nos vies, avec des systèmes d’IA sécurisés ou non qui progressent à grands pas.

L’IA sécurisée, comme ChatGPT d’OpenAI, est étroitement contrôlée et utilisée via des interfaces Web ou des API. Cependant, l’émergence rapide de puissants systèmes non sécurisés présente des risques importants qui méritent notre attention.

IA non sécurisée – Une préoccupation croissante

Contrairement à leurs homologues sécurisés, ils ne disposent pas de mesures de sécurité robustes et sont facilement sujets à une utilisation abusive. Ces modèles, une fois publiés, peuvent être difficiles à contrôler ou à modifier, ce qui les rend particulièrement dangereux entre les mains d’acteurs malveillants. Leurs menaces englobent divers aspects, notamment la diffusion de fausses informations, l’ingérence électorale, la pornographie truquée et même la facilitation potentielle de matières dangereuses telles que les armes biologiques et chimiques. Pour y faire face, voici un ensemble complet de réglementations qui s’appliquent non seulement à l’IA non sécurisée mais également à celle qui l’est, garantissant l’équité et la sécurité de cette technologie:

Suspendre les nouvelles versions: interrompre la publication de systèmes d’IA non sécurisés jusqu’à ce que les développeurs répondent à des exigences spécifiques, en garantissant que les fonctionnalités de sécurité ne peuvent pas être facilement supprimées.

Enregistrement et licence: mettre en œuvre l’enregistrement et la licence pour les systèmes d’IA au-dessus d’un certain seuil de capacité.

Responsabilité en cas d’utilisation abusive: établir la responsabilité en cas d’utilisation abusive raisonnablement prévisible et de négligence, en tenant les développeurs d’IA responsables des dommages causés aux individus et à la société.

Évaluation des risques et audits indépendants: développer des procédures d’évaluation des risques, d’atténuation et d’audit indépendant pour les systèmes d’IA dépassant le seuil de capacité.

Filigrane et provenance: exigez que le contenu généré par l’IA soit clairement étiqueté et authentifié, avec des métadonnées détaillant sa provenance.

Données de formation transparentes: exiger la transparence concernant les données de formation, en interdisant l’utilisation d’informations personnellement identifiables et de contenus liés à des fins préjudiciables.

Accès des chercheurs: permettre aux chercheurs agréés et aux organisations de la société civile d’accéder aux systèmes d’IA générative à des fins de recherche et de test.

Procédures « Connaissez votre client »: mettez en œuvre des procédures similaires à celles des institutions financières pour la vente de matériel d’IA puissant et de services cloud, en limitant ces dernières si nécessaire.

Divulgation obligatoire des incidents: exiger légalement que les développeurs signalent les vulnérabilités ou les défaillances de leurs systèmes d’IA aux autorités gouvernementales désignées.

Source