Un exemple de plus que l’intelligence artificielle doit être surveillée et encadrée. L’IA générative d’OpenAI « a débloqué pendant plusieurs heures mardi, répondant aux questions des utilisateurs avec des phrases sans aucun sens », explique l’AFP.
L’IA « génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies […] On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté », explique un utilisateur repris par nos confrères.
Toujours selon l’AFP, OpenAI affirme que ChatGPT fonctionne de nouveau « normalement ». La société avait annoncé « enquêter sur des signalements de réponses inattendues de la part de ChatGPT », puis avoir « identifié le problème » et « être en train de le résoudre ». L’entreprise ne donne par contre aucune précision supplémentaire.
Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.






