Microsoft a annoncé la disponibilité générale d’Azure AI Content Safety. Il s’agit d’une plateforme basée sur des modèles de langage et de vision conçue pour aider à détecter les contenus haineux, violents, sexuels et d’automutilation.
L’objectif ? Lorsque les modèles détectent un contenu potentiellement dangereux, ils le marquent avec un score de gravité estimé. Les entreprises et organisations l’utilisant peuvent alors adapter le service pour bloquer ou signaler le contenu en fonction de leurs politiques.
Le nouveau service a notamment été utilisé par le ministère de l’Éducation d’Australie-Méridionale pour créer un chatbot appelé EdChat, presque finalisé. Ses fonctions de sécurité bloquent les requêtes inappropriées et filtrent les réponses dangereuses, ce qui permet aux enseignants de se concentrer sur les aspects pédagogiques de la technologie au lieu de contrôler le contenu. Il a été testé par 1 500 élèves et 150 enseignants.
Comme toujours avec ce type d’outil automatisé, l’humain a le dernier mot. Le service n’est pas présenté comme pouvant régler tous les problèmes. Microsoft prend bien soin de parler d’aide à la gestion.
L’entreprise a également annoncé qu’Azure AI Content Safety était désormais indépendant. Les clients peuvent donc l’utiliser pour le contenu généré par l’IA à partir de modèles open-source et d’autres entreprises, ainsi que pour celui généré par l’utilisateur.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.