ChatGPT

Qu’est-ce que LLaMA, le rival de ChatGPT poussé par Meta

Meta se lance dans la guerre de l’IA générative avec LLaMA, son modèle de langage destiné aux intelligences artificielles.

Le vendredi 24 février 2023, Meta, la maison mère de Facebook, a affirmé sa volonté de ne pas manquer la guerre de l’IA. Face à ChatGPT et Bard, la réponse du géant des réseaux sociaux s’appellera donc LLaMA, un « nouveau modèle de langage […] conçu pour aider les chercheurs dans leurs travaux », selon Mark Zuckerberg dans un message publié sur compte Facebook.

Récemment, les intelligences artificielles génératives ont montré leur aptitude pour « générer du texte, tenir des conversations, résumer des textes, et même exécuter des tâches plus complexes telles que la résolution de théorèmes mathématiques », relève le fondateur du réseau social — et Meta n’entend pas laisser le champ libre à ses rivaux dans un secteur de plus en plus stratégique.

LLaMA, pour Large Language Model Meta AI, est, comme son nom l’indique, un modèle linguistique. Il s’agit du socle permettant d’utiliser les intelligences artificielles comme ChatGPT et les autres agents conversationnels — les chatbots, en anglais. L’arrivée de Meta dans ce domaine, qui attire toutes les convoitises depuis la sortie de ChatGPT, n’est pas anodine — et LLaMA n’est pas un modèle comme les autres.

C’est quoi un modèle de langage ?

Tout d’abord, il convient de clarifier ce qu’est un modèle de langage. Il s’agit d’un modèle statistique qui permet de prédire quel mot suivra, en se fondant sur les termes déjà inscrits. C’est grâce à cela que les large language models savent que le mot « chat » sera beaucoup plus probablement suivi par l’adjectif « noir » que par le terme « paëlla ». LLaMA est donc l’équivalent de GPT-3, le modèle qui permet à ChatGPT de fonctionner, et de LaMDA, le modèle de langage développé par Google pour alimenter Bard.

Source

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

1 semaine ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

1 semaine ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

1 semaine ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

1 semaine ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

1 semaine ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

1 semaine ago

This website uses cookies.