Open ai
Discuter avec une machine sans qu’elle affirme n’importe quoi ? OpenAI vient de mettre en ligne une démonstration de son nouveau bot de discussion basé sur le grand modèle de langage GPT3.5 entraîné à restreindre ses affirmations un peu trop péremptoires. Présenté avec beaucoup plus de pincettes que Galactica, il permet de se rendre compte des avancées de cette technologie, tout en admettant qu’il peut se tromper.
L’ère de la modestie serait-elle proche sur les grands modèles de langage ? Ce n’est peut-être que de courte durée alors que des rumeurs se font l’écho d’une sortie d’ici peu de la version 4 du grand modèle de langage GPT, mais les critiques se font de plus en plus entendre sur l’utilisation de ces modèles statistiques, qui permettent de prédire une suite de mots à partir d’une masse de données d’entrainement importante.
Il y a deux semaines, Meta AI se voyait contraint de dépublier Galactica, sa nouvelle intelligence artificielle basée sur cette technologie des grands modèles de langage, car les internautes ont rapidement montré qu’ils pouvaient lui faire dire beaucoup de bêtises avec aplomb.
Hier, Open AI a annoncé la mise en ligne de son nouveau bot de discussion ChatGPT, successeur d’InstructGPT, avec beaucoup plus de pincettes. Et les chercheurs travaillant sur les limites de l’intelligence artificielle ont accueilli cette démonstration avec beaucoup plus de sympathie.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.