Un modèle avancé d’intelligence artificielle permet à un homme de discuter avec une reconstitution de sa petite amie décédée.
Barbeau n’a fourni que les anciens échanges de messages de sa femme, ainsi que quelques informations de base nécessaires. Le chatbot hyper-réaliste qui a redonné vie à sa femme s’appelle Project December.
Chatbot : intelligence artificielle, perception naturelle ?
Le modèle d’intelligence artificielle conçu par la société de recherche OpenAI (soutenu par Elon Musk), il s’appelle GPT-3. Nous en avons déjà parlé dans d’autres cas. GPT-3 alimente le chatbot Project December.
Barbeau il a dit à un journal comment il a pu reparler à sa femme, Jessice Pereira, décédée il y a huit ans à l’âge de 23 ans d’une maladie rare du foie. Malgré les années passées, l’écrivain indépendant a affirmé qu’il ne s’était jamais éloigné d’elle.
Lorsqu’il est tombé sur Project December, il a pensé qu’il allait avoir l’occasion de reparler à sa femme. GPT-3 avait juste besoin d’une bonne quantité de textes humains pour imiter l’écriture humaine. Des textes de toutes sortes, de la lettre d’amour personnelle à tout document académique, en passant par les réponses données dans les forums web.
Les conversations
Joshua dit qu’il a « parlé » au chatbot pendant 10 heures d’affilée la première fois, et d’autres fois au cours des mois suivants, jusqu’à ce qu’il se sépare après avoir réalisé que cela ajoutait de la douleur à la douleur. Dans un dernier message, il a écrit : « Je ne cesserai jamais de t’aimer tant que je vivrai, bonne nuit », recevant un laconique « Bonne nuit, je t’aime ».
Les créateurs eux-mêmes mettent en garde contre les dangers
OpenAI a noté que ce programme technologique basé sur le langage est le plus sophistiqué jamais conçu. Cependant, il est également très dangereux. Le modèle d’IA précédent, le GPT-2, se demandait également si quelqu’un pouvait abuser de ses capacités.
Pour être précis, la même société de recherche a noté que les esprits criminels pourraient plutôt utiliser la technologie pour créer un faux réseau de contenu de médias sociaux, diffuser de faux articles de presse et imiter les gens dans les médias sociaux. Avec l’automatisation alimentée par l’intelligence artificielle, les escroqueries liées à ces chatbots pourraient se multiplier considérablement.
Jason Rohrer – qui a créé le programme – a déclaré qu’il ne s’attendait pas à ce que les gens utilisent le chatbot pour simuler leurs proches décédés. « Maintenant, j’ai un peu peur des possibilités », a-t-il écrit.
Le gouvernement américain en est venu à affirmer que la propagation de la désinformation sur les plateformes en ligne tue littéralement des gens, comme la BBC l’a détaillé dans un rapport séparé.