Fermer

avril 18, 2024

Meta AI dévoile les deux premières versions de Llama 3

Meta AI dévoile les deux premières versions de Llama 3


Cet article a été initialement publié sur Interne du milieu des affaires.

Le grand modèle de langage de Meta et l’assistant AI reçoivent des mises à niveau.

Jeudi, la société a lancé les premiers modèles de Llama 3 en deux tailles, paramètres 8B et 70B. Ils ont également été intégrés à Meta AI, l’assistant IA de l’entreprise.

« Avec ce nouveau modèle, nous pensons que Meta AI est désormais l’assistant d’IA le plus intelligent que vous puissiez utiliser librement », a déclaré le PDG Mark Zuckerberg. dit Jeudi dans une publication Instagram.

Meta a dit dans un article de blog Jeudi, ses nouveaux modèles ont vu « des taux de faux refus considérablement réduits, un alignement amélioré et une diversité accrue dans les réponses des modèles », ainsi que des progrès dans le raisonnement, la génération de code et l’instruction.

« Avec Llama 3, nous avons décidé de construire les meilleurs modèles ouverts, comparables aux meilleurs modèles propriétaires disponibles aujourd’hui », peut-on lire dans le message. « Cette nouvelle génération de Llama démontre des performances de pointe sur un large éventail de références industrielles et offre de nouvelles capacités, notamment un raisonnement amélioré. Nous pensons que ce sont les meilleurs modèles open source de leur catégorie, point final. »

Cependant Meta présente Llama comme open sourceLlama 2 exigeait que les entreprises comptant plus de 700 millions d’utilisateurs actifs mensuels demandent à l’entreprise une licence pour l’utiliser, que Meta peut ou non accorder.

Dans un avenir proche, Meta espère « rendre Llama 3 multilingue et multimodal, avoir un contexte plus long et continuer à améliorer les performances globales des fonctionnalités de base du LLM telles que le raisonnement et le codage », a déclaré la société dans le blog.

Alors, que signifient les changements pour Meta AI maintenant ?

Le AI assistant peut aider dans des tâches telles que recommander des restaurants, planifier des voyages et rendre vos e-mails plus professionnels.

En utilisant Fonctionnalité Imagine de Meta AI produit également désormais des images plus nettes plus rapidement : elles commenceront à apparaître au fur et à mesure que vous tapez et changeront « toutes les quelques lettres tapées », selon un communiqué de presse publié jeudi.

Meta AI est disponible sur Facebook, Instagram, WhatsApp, Messenger et sur les navigateurs. La société affirme que la Meta AI multimodale arrivera également bientôt sur ses lunettes intelligentes Ray-Ban Meta. Il est déployé en anglais dans plus d’une douzaine de pays en dehors des États-Unis.

Quant à la suite, Meta affirme travailler sur des modèles de plus de 400 milliards de paramètres qui sont encore en formation.

« Je ne pense pas qu’aujourd’hui beaucoup de gens pensent vraiment à Meta AI lorsqu’ils pensent aux principaux assistants d’IA que les gens utilisent », a déclaré Mark Zuckerberg, PDG de Meta. dit The Verge dans un article publié jeudi. « Mais je pense que c’est le moment où nous allons vraiment commencer à le présenter à beaucoup de gens, et je m’attends à ce que ce soit un produit assez important. »

La méta-IA, bien sûr, fait face à une concurrence féroce d’assistants d’IA plus connus, notamment ChatGPT d’OpenAI, Copilot de Microsoft et Claude d’Anthropic.






Source link