Llama 3.3 70B : Meta annonce des performances comparables à celles de Llama 3.1 405B, mais à un coût considérablement réduit

Publié le 9 décembre 2024 à 13h01
modifié le 9 décembre 2024 à 13h01
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Llama 3.3 70B : performances comparables à Llama 3.1 405B

Le modèle Llama 3.3 70B, récemment annoncé par Meta, se positionne stratégiquement sur le marché des modèles open source. Meta met en avant que ce modèle égalise les performances du Llama 3.1, qui possède 405 milliards de paramètres, tout en présentant un coût significativement inférieur. Un atout majeur pour les entreprises désireuses d’intégrer l’IA tout en maîtrisant leurs budgets.

Une série de lancements rapide

Meta ne ralentit pas son rythme de publication, ayant introduit Llama 3.1 en juillet, suivi par Llama 3.2 fin septembre, et enfin, Llama 3.3 la semaine dernière. Meta déclare que le modèle Llama 3.3 70B permet d’accéder à une qualité et une performance supérieures pour les applications textuelles, toujours à un coût réduit.

Préparation et données d’entraînement

Pour cette version ultime, Meta a pré-entraîné son modèle sur environ 15 000 milliards de tokens provenant de sources accessibles au public. Le fine-tuning a intégré des ensembles de données d’instructions publiques et plus de 25 millions d’exemples générés de manière synthétique. Les chercheurs indiquent que les données utilisées pour le pré-entraînement s’étendent jusqu’à décembre 2023.

Architecture et développement

Llama 3.3 70B repose sur une architecture de type Transformer et utilise un modèle auto-régressif. Le développement a impliqué un fine-tuning supervisé ainsi qu’un apprentissage par renforcement assisté par feedback humain (RLHF). Le modèle offre une fenêtre contextuelle de 128 000 tokens, optimisant ainsi son utilisation pour des instructions textuelles variées.

Comparaison de performances

Les résultats des benchmarks montrent que Llama 3.3 70B égalise les performances de Llama 3.1 70B et du modèle Nova Pro d’Amazon, qui a été présenté récemment. À travers divers tests, Llama 3.3 70B surpasserait ses concurrents tels que Gemini Pro 1.5 et GPT-4o. Il se distingue en offrant des performances comparables à Llama 3.1 405B pour un coût un dixième inférieur.

Multilinguisme et applications commerciales

Le modèle prend en charge huit langues : allemand, espagnol, français, hindi, italien, portugais, thaï et anglais. Llama 3.3 est conçu pour des usages commerciaux et de recherche, pouvant fonctionner en tant qu’assistant type chatbot ou pour des tâches de génération de texte. Meta encourage les développeurs à tirer parti des capacités linguistiques étendues du modèle, tout en soulignant l’importance d’un fine-tuning pour les langues non supportées.

Infrastructure et ressources

Un volume considérable de ressources a été mobilisé pour l’entraînement : 39,3 millions d’heures de GPU de calcul sur du matériel H100-80GB. Les infrastructures de pré-entraînement, de fine-tuning, d’annotation et d’évaluation ont été intégrées dans l’écosystème de production de Meta, permettant ainsi d’optimiser la qualité des performances.

Potentiel et recommandations

Meta met en avant que Llama 3.3 offre des performances rentables avec une inférence réalisable sur des postes de travail courants. Bien que le modèle soit capable de produire du texte dans d’autres langues, Meta déconseille son utilisation pour des conversations dans des langues non officielles sans ajustements préalables.

Foire aux questions courantes sur Llama 3.3 70B

Quelle est la différence principale entre Llama 3.3 70B et Llama 3.1 405B ?
La principale différence est que Llama 3.3 70B offre des performances similaires à Llama 3.1 405B tout en nécessitant moins de ressources financières et de calcul.
Quels avantages financiers Llama 3.3 70B offre-t-il par rapport à d’autres modèles ?
Le modèle Llama 3.3 70B permet aux entreprises d’accéder à une technologie avancée d’IA à un coût considérablement réduit, rendant l’IA plus accessible.
Comment Llama 3.3 70B atteint-il de telles performances avec moins de paramètres ?
Cette performance est obtenue grâce à une optimisation des algorithmes et un entraînement sur un plus grand volume de données, ainsi qu’une architecture de modèle avancée.
Quelles langues sont supportées par Llama 3.3 70B ?
Llama 3.3 70B prend en charge 8 langues, dont l’Allemand, l’Espagnol, le Français, le Hindi, l’Italien, le Portugais et le Thaï.
Comment Llama 3.3 70B est-il pré-entraîné ?
Le modèle a été pré-entraîné sur environ 15 000 milliards de tokens provenant de sources disponibles publiquement, ainsi que sur un ensemble de données d’instructions.
Quels types d’applications peuvent bénéficier de Llama 3.3 70B ?
Llama 3.3 70B est idéal pour des applications de dialogue multilingue, des chatbots et diverses tâches de génération de texte dans un contexte commercial et de recherche.
Quelle est la capacité de la fenêtre contextuelle de Llama 3.3 70B ?
Le modèle dispose d’une fenêtre contextuelle de 128 000 tokens, ce qui permet de gérer des contextes textuels plus longs et plus complexes.
Llama 3.3 70B est-il recommandé pour des langues non prises en charge ?
Bien qu’il puisse produire du texte dans d’autres langues, Meta déconseille son utilisation sans fine-tuning et contrôles de sécurité dans ces langues non supportées.
Quelles infrastructures techniques ont été utilisées pour l’entraînement de Llama 3.3 70B ?
Le pré-entraînement a été effectué sur un cluster GPU personnalisé de Meta, utilisant un total de 39,3 millions d’heures de GPU sur du matériel de type H100-80GB.
Llama 3.3 70B est-il toujours un modèle open source ?
Oui, Llama 3.3 70B demeure un modèle open source offrant une licence communautaire qui permet une variété d’applications commerciales et de recherche.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsLlama 3.3 70B : Meta annonce des performances comparables à celles de...

un aperçu des employés touchés par les récents licenciements massifs chez Xbox

découvrez un aperçu des employés impactés par les récents licenciements massifs chez xbox. cette analyse explore les circonstances, les témoignages et les implications de ces décisions stratégiques pour l'avenir de l'entreprise et ses salariés.
découvrez comment openai met en œuvre des stratégies innovantes pour fidéliser ses talents et se démarquer face à la concurrence croissante de meta et de son équipe d'intelligence artificielle. un aperçu des initiatives clés pour attirer et retenir les meilleurs experts du secteur.
découvrez comment une récente analyse met en lumière l'inefficacité du sommet sur l'action en faveur de l'ia pour lever les obstacles rencontrés par les entreprises. un éclairage pertinent sur les enjeux et attentes du secteur.

IA générative : un tournant décisif pour l’avenir du discours de marque

explorez comment l'ia générative transforme le discours de marque, offrant de nouvelles opportunités pour engager les consommateurs et personnaliser les messages. découvrez les impacts de cette technologie sur le marketing et l'avenir de la communication.

Fonction publique : des recommandations pour réguler l’utilisation de l’IA

découvrez nos recommandations sur la régulation de l'utilisation de l'intelligence artificielle dans la fonction publique. un guide essentiel pour garantir une mise en œuvre éthique et respectueuse des valeurs républicaines.

L’IA découvre une formule de peinture pour rafraîchir les bâtiments

découvrez comment l'intelligence artificielle a développé une formule innovante de peinture destinée à revitaliser les bâtiments, alliant esthétique et durabilité. une révolution dans le secteur de la construction qui pourrait transformer nos horizons urbains.