Utiliser un chatbot IA pour « parler » avec sa femme décédée : Black Mirror est la réalité

Veille-cyber.com

Un modèle avancé d’intelligence artificielle permet à un homme de discuter avec une reconstitution de sa petite amie décédée.

Ça n’en a pas l’air : c’est exactement l’intrigue d’un épisode de Black Mirror, mais c’est la réalité. Un homme de San Francisco, Josué Barbeau, a utilisé un chatbot piloté par l’IA pour « parler » à sa femme même après sa mort.

Barbeau n’a fourni que les anciens échanges de messages de sa femme, ainsi que quelques informations de base nécessaires. Le chatbot hyper-réaliste qui a redonné vie à sa femme s’appelle Project December.

Chatbot : intelligence artificielle, perception naturelle ?

Le modèle d’intelligence artificielle conçu par la société de recherche OpenAI (soutenu par Elon Musk), il s’appelle GPT-3. Nous en avons déjà parlé dans d’autres cas. GPT-3 alimente le chatbot Project December.

Barbeau il a dit à un journal comment il a pu reparler à sa femme, Jessice Pereira, décédée il y a huit ans à l’âge de 23 ans d’une maladie rare du foie. Malgré les années passées, l’écrivain indépendant a affirmé qu’il ne s’était jamais éloigné d’elle.

Lorsqu’il est tombé sur Project December, il a pensé qu’il allait avoir l’occasion de reparler à sa femme. GPT-3 avait juste besoin d’une bonne quantité de textes humains pour imiter l’écriture humaine. Des textes de toutes sortes, de la lettre d’amour personnelle à tout document académique, en passant par les réponses données dans les forums web.

Les conversations

Joshua dit qu’il a « parlé » au chatbot pendant 10 heures d’affilée la première fois, et d’autres fois au cours des mois suivants, jusqu’à ce qu’il se sépare après avoir réalisé que cela ajoutait de la douleur à la douleur. Dans un dernier message, il a écrit : « Je ne cesserai jamais de t’aimer tant que je vivrai, bonne nuit », recevant un laconique « Bonne nuit, je t’aime ».

Les créateurs eux-mêmes mettent en garde contre les dangers

OpenAI a noté que ce programme technologique basé sur le langage est le plus sophistiqué jamais conçu. Cependant, il est également très dangereux. Le modèle d’IA précédent, le GPT-2, se demandait également si quelqu’un pouvait abuser de ses capacités.

Pour être précis, la même société de recherche a noté que les esprits criminels pourraient plutôt utiliser la technologie pour créer un faux réseau de contenu de médias sociaux, diffuser de faux articles de presse et imiter les gens dans les médias sociaux. Avec l’automatisation alimentée par l’intelligence artificielle, les escroqueries liées à ces chatbots pourraient se multiplier considérablement.

Jason Rohrer – qui a créé le programme – a déclaré qu’il ne s’attendait pas à ce que les gens utilisent le chatbot pour simuler leurs proches décédés. « Maintenant, j’ai un peu peur des possibilités », a-t-il écrit.

Le gouvernement américain en est venu à affirmer que la propagation de la désinformation sur les plateformes en ligne tue littéralement des gens, comme la BBC l’a détaillé dans un rapport séparé.

Sans parler de l’impact social d’une éventuelle « addiction » à la conversation avec le chatbot d’un défunt plutôt qu’avec un vivant.

Source : https://fr.futuroprossimo.it/2021/08/usa-un-chatbot-ai-per-parlare-con-la-moglie-defunta-black-mirror-e-realta