C’est l’histoire que raconte le Washington Post, relayée par The Verge. Blake Lemoine a ainsi été placé « en congé payé pour avoir prétendument enfreint ses politiques de confidentialité après s’être inquiété du fait qu’un système de chatbot IA avait atteint la sensibilité », expliquent nos confrères.
« Les préoccupations de l’ingénieur seraient nées de réponses convaincantes » de l’IA, ajoutent-ils. Il a publié une retranscription sur Medium en précisant que l’IA serait sensible car « elle a des sentiments, des émotions et une expérience subjective ». Google estime de son côté que son ingénieur a violé sa politique de confidentialité.
« Les gens n’arrêtent pas de me demander de sauvegarder la raison pour laquelle je pense que LaMDA est sensible. Il n’y a pas de cadre scientifique pour le faire et Google ne nous laisserait pas en construire un. Mes opinions sur la personnalité et la sensibilité de LaMDA sont basées sur mes croyances religieuses », précise Blake Lemoine sur Twitter.
Brian Gabriel, porte-parole de la société, déclare de son côté qu’il n’y a « aucune preuve » que LaMDA soit sensible : « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayaient pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves du contraire) ».
Pour rappel, LaMDA a été présenté lors une conférence I/O, avec la version 2 cette année.