Une enquête du magazine américain Time révèle que les travailleurs kényans qui ont entraîné ChatGPT pour qu’il soit plus éthique ont été payés moins de 2 dollars de l’heure.
Si les grands modèles de langage sont puissants pour générer du texte qui semble écrit par un humain, leur entrainement sur des textes venant d’internet les pousse à produire des réponses irréalistes ou toxiques.
Pour éviter ce genre de travers, OpenAI, l’éditeur du chatbot, a mis en place un système de filtre de récompenses en demandant à des humains de classer des exemples de texte en leur attribuant une étiquette de « violence », « discours de haine » ou d’ « abus sexuel ».
OpenAI a envoyé à une entreprise de sous-traitance kényane des dizaines de milliers d’exemples contenant des descriptions de situations violentes avec des détails d’actes pédocriminels, de bestialité, de meurtres, de suicides, de tortures et d’incestes.
Les Kényans employés par l’agence de sous-traitance Sama, basée elle-même à San Francisco, étaient payés entre 1,3 et 2 dollars de l’heure pour étiqueter ces exemples de textes violents. Le magazine a obtenu des documents de l’entreprise sous-traitante et d’OpenAI prouvant les dires de quatre employés de Sama, qui ont parlé aux journalistes sous couvert d’anonymat.