3 ways AI
Une enquête du magazine américain Time révèle que les travailleurs kényans qui ont entraîné ChatGPT pour qu’il soit plus éthique ont été payés moins de 2 dollars de l’heure.
Si les grands modèles de langage sont puissants pour générer du texte qui semble écrit par un humain, leur entrainement sur des textes venant d’internet les pousse à produire des réponses irréalistes ou toxiques.
Pour éviter ce genre de travers, OpenAI, l’éditeur du chatbot, a mis en place un système de filtre de récompenses en demandant à des humains de classer des exemples de texte en leur attribuant une étiquette de « violence », « discours de haine » ou d’ « abus sexuel ».
OpenAI a envoyé à une entreprise de sous-traitance kényane des dizaines de milliers d’exemples contenant des descriptions de situations violentes avec des détails d’actes pédocriminels, de bestialité, de meurtres, de suicides, de tortures et d’incestes.
Les Kényans employés par l’agence de sous-traitance Sama, basée elle-même à San Francisco, étaient payés entre 1,3 et 2 dollars de l’heure pour étiqueter ces exemples de textes violents. Le magazine a obtenu des documents de l’entreprise sous-traitante et d’OpenAI prouvant les dires de quatre employés de Sama, qui ont parlé aux journalistes sous couvert d’anonymat.
Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
This website uses cookies.