ROBOTS TUEURS
Nous vous l’expliquions dans un récent article, les travailleurs qui créent les données d’entraînement des modèles d’apprentissage machine utilisent, eux aussi, de manière croissante, des données produites par des modèles génératifs à la ChatGPT.
Problème, démontrent des chercheurs canadiens et britanniques : utiliser des données produites par un modèle génératif à l’entrainement « peut entraîner des défauts irréversibles » dans le modèle algorithmique en construction.
Les auteurs de l’étude parlent d’un « effondrement du modèle ». Auprès de Venture Beat, l’informaticien Ilia Shumailov précise : « nous avons été surpris par la vitesse à laquelle un tel effondrement peut se produire. »
Les modèles génératifs entraînés à partir de données générées par d’autres machines perdent très rapidement le contact avec les données réelles initiales qui ont permis leur entraînement, le nombre d’erreurs dans les résultats fournis augmentant de manière exponentielle.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.