Un juge colombien a utilisé ChatGPT pour rendre une décision de justice

Artificially intelligent robot perpetuates racist and sexist prejudice

MotherBoard relève que « le juge Juan Manuel Padilla Garcia, qui préside le premier tribunal de circuit de la ville de Carthagène, a déclaré qu’il avait utilisé l’outil d’intelligence artificielle pour poser des questions juridiques sur l’affaire et avait inclus ses réponses dans sa décision, selon un document judiciaire daté du 30 janvier 2023. »

« L’inclusion de ces textes produits par l’IA n’a en aucun cas pour but de remplacer la décision du juge », précise-t-il dans sa décision : « ce que nous recherchons vraiment, c’est d’optimiser le temps passé à rédiger les jugements après avoir corroboré les informations fournies par l’IA ».

« L’affaire concernait un différend avec une compagnie d’assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d’une couverture pour un traitement médical », précise MotherBoard. Les questions juridiques saisies dans l’outil d’IA incluaient : « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des affaires similaires ? »

Le juge Garcia a inclus dans sa décision les réponses complètes de ChatGPT, ainsi que sa propre analyse de la jurisprudence, pour motiver sa décision.

MotherBoard précise que si la loi colombienne n’interdit pas l’utilisation de l’IA dans les décisions de justice, « des systèmes comme ChatGPT sont connus pour donner des réponses biaisées, discriminatoires ou tout simplement fausses » : « En effet, le modèle de langage ne contient aucune « compréhension » réelle du texte – il synthétise simplement des phrases basées sur la probabilité à partir des millions d’exemples utilisés pour entraîner le système. »

Source Neximpact