faux chatgpt
Un exemple de plus que l’intelligence artificielle doit être surveillée et encadrée. L’IA générative d’OpenAI « a débloqué pendant plusieurs heures mardi, répondant aux questions des utilisateurs avec des phrases sans aucun sens », explique l’AFP.
L’IA « génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies […] On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté », explique un utilisateur repris par nos confrères.
Toujours selon l’AFP, OpenAI affirme que ChatGPT fonctionne de nouveau « normalement ». La société avait annoncé « enquêter sur des signalements de réponses inattendues de la part de ChatGPT », puis avoir « identifié le problème » et « être en train de le résoudre ». L’entreprise ne donne par contre aucune précision supplémentaire.
Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.
Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…
Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises Le 5 décembre…
Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…
La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…
Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…
Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…
This website uses cookies.