ia donnees
Depuis l’arrivée des modèles de langage, les développeurs ont à leur disposition des outils comme Copilot de Github ou Codex d’OpenAI qui leur proposent de les assister dans la génération de code. Quelles sont les conséquences sur la sécurité du code utilisé ?
Des chercheurs de Stanford ont comparé la qualité du code de développeurs utilisant ou non une IA comme assistant dans une présentation faite à la Computer and Communications Security et titrée « Do Users Write More Insecure Code with AI Assistants? ».
« Dans l’ensemble, nous constatons que les participants qui ont accès à un assistant IA écrivent un code nettement moins sûr que ceux qui n’ont pas accès à un assistant », expliquent-ils.
Leur étude compare les résultats de tests effectués par un groupe ayant accès à une IA assistante et ceux d’un groupe n’ayant pas accès à ce genre d’outils. En tout, ils ont fait passer le test à 47 personnes (33 dans le groupe avec assistant IA et 14 dans le groupe contrôle). Les deux tiers étaient des étudiants, mais leur panel inclut aussi des diplômés et des professionnels.
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…
This website uses cookies.