Quand une mauvaise utilisation de l’IA conduit à des conclusions scientifiques erronées sur le suicide

ia suicide
ia suicide

En 2017, des chercheurs en psychologie et psychiatrie pensaient avoir trouvé une manière très efficace de détecter des idées suicidaires chez les jeunes. Mais six ans après, ils se résolvent à retirer leur étude alors que plusieurs de leurs collègues pointent des erreurs dans l’utilisation du machine learning dans leurs travaux.

Dans un article publié en 2017 dans la revue scientifique Nature Human Behavior, le chercheur en psychologie à l’université de Carnegie Mellon, Marcel Adam Just, et ses collègues annonçaient avoir trouvé un biomarqueur, c’est-à-dire une caractéristique biologique mesurable dans le temps, permettant de détecter les idées suicidaires.

Les chercheurs proclamaient qu’après avoir fait passer une imagerie par résonance magnétique fonctionnelle (IRMf) à un patient qui pensait à 30 concepts comme « mort », « cruauté », « trouble », « bon » ou « insouciance », leur algorithme de deep-learning analysant les images résultantes était capable de détecter si une personne était suicidaire avec une « précision élevée (91 %) ».

Cet article a eu un certain succès dans la communauté scientifique puisqu’il a été cité 134 fois par d’autres chercheurs si on en croit le Web of Science (plateforme de statistique de l’édition scientifique), et notamment par un article publié dans Nature Medecine en 2019 passant en revue l’utilisation de plus en plus importante de l’intelligence artificielle en médecine.

Mais Marcel Adam Just avait tout faux. Les auteurs viennent de retirer leur article ce jeudi 6 avril, alors que deux autres chercheurs ont publié ce même jour un article très critique sur leur mauvaise utilisation de l’intelligence artificielle.

Source