Un document laisse entrevoir les activités de lobbying d’OpenAI auprès de l’UE dans le cadre de l’élaboration de l’AI Act.
« Réguler l’IA, oui mais… » Ainsi avions-nous résumé, il y a quelques semaines, ce qui s’était joué devant le Congrès américain. Ce dernier avait auditionné des personnalités de la tech qui s’étaient globalement prononcées en faveur d’un encadrement du secteur, en dépit de divergences sur les leviers à utiliser.
Sam Altman, le CEO d’OpenAI, était de la partie. Quelques jours plus tard, il allait cosigner, avec plus de 350 spécialistes en IA et dirigeants d’entreprises, une forme d’appel à la vigilance. Le message, dans les grandes lignes : atténuer le risque d’extinction de l’humanité par l’IA devrait être une priorité mondiale comme l’est la question des pandémies ou de la guerre nucléaire.
En coulisse, le ton n’est pas le même. En tout cas au sujet de la législation sur l’intelligence artificielle (AI Act) que prépare l’Union européenne. Le texte, dont l’adoption devrait intervenir cette année, instaure des exigences spécifiques pour les systèmes d’IA « à haut risque ». OpenAI tente d’éviter que ses services soient classés comme tels. Ou, tout du moins, a tenté. En témoigne un « livre blanc » poussé, à l’automne 2022, vers les élus européens… mais pas au-delà.
En quatre points, OpenAI y expose ses « craintes » et suggère de reformuler, voire d’abandonner diverses dispositions inscrites dans la proposition initiale de la Commission européenne ou dans des documents ultérieurs.
OpenAI veut éviter la catégorie « haut risque »
Le « livre blanc » attire d’abord l’attention sur la position que la France avait émise en juin 2022, à l’heure où s’achevait son tour de présidence du Conseil de l’UE. Et plus particulièrement sur un aspect : l’estimation du niveau de risque des IA générales.