Ouvrir le menu principal

MacGeneration

Recherche

Meta : la deuxième version de LLaMA est open source et utilisable dans un cadre commercial

Félix Cattafesta

mercredi 19 juillet 2023 à 11:15 • 14

Ailleurs

Meta vient de présenter la deuxième grande version de LLaMA, son modèle de langage s'opposant au GPT-4 d'OpenAI. L'entreprise a annoncé la nouvelle à l'occasion d'un événement de Microsoft, précisant que cette dernière était son « partenaire privilégié » pour LLaMA 2. Bonne nouvelle : le modèle sera distribué gratuitement sous une licence permettant une utilisation commerciale.

La stratégie de l'open source est diamétralement opposée à celle d'OpenAI et de Google, qui gardent leurs algorithmes sous clefs. La diffusion d'un LLaMA 2 accessible à tous devrait multiplier les projets basés sur l'IA, et en faire une solution de choix pour les entreprises ne désirant pas payer pour les API de la concurrence.

LLaMA 2 est disponible en trois déclinaisons plus ou moins gourmandes (7B, 13B et 70B) et a été entraîné avec 40% de données en plus par rapport à la première version. Selon Meta, LLaMA 2 est légèrement moins performant que GPT-4 ou PaLM 2, et loin derrière OpenAI en termes de programmation. Un partenariat avec Qualcomm va permettre d'optimiser le modèle pour les téléphones et autres appareils embarquant un SoC de l'entreprise à partir de 2024.

« Nous pensons qu'une approche ouverte est la bonne pour le développement des modèles d'IA d'aujourd'hui, en particulier ceux du secteur génératif où la technologie progresse rapidement », a déclaré Meta. L'entreprise ajoute vouloir mettre le modèle entre les mains de tous, que ce soit celles des grandes boîtes, des entrepreneurs ou des chercheurs. Les « poids » des modèles (les fichiers contenant les valeurs des paramètres des réseaux neuronaux formés) sont téléchargeables, tout comme le code pour le modèle préentraîné ainsi que les versions affinées pour les conversations.

Nous pensons que [l'open source] est plus sûr. Ouvrir l'accès aux modèles d'IA actuels signifie qu'une génération de développeurs et de chercheurs peut les tester en profondeur, identifier et résoudre les problèmes rapidement, en tant que communauté. En voyant comment ces outils sont utilisés par d'autres, nos propres équipes peuvent en tirer des enseignements, améliorer ces outils et corriger les vulnérabilités.

La mise à disposition de ce nouveau modèle a été faite à l'occasion d'un évènement Microsoft. Les deux entreprises disposent d'un partenariat, ce qui fait que Llama 2 est disponible dans le catalogue de modèles Azure AI. Il est également « optimisé » pour fonctionner localement sur Windows. Ce rapprochement avec Meta fait sens pour la firme de Redmond : elle gagne ainsi une longueur d'avance sur son principal rival Google, et peut proposer à ses clients un modèle personnalisable.

Meta mise sur l'open source pour gagner la course à l'IA, ce qui est loin d'être idiot : LLaMA va être à la base de nombreux projets open source et s'imposer dans la communauté libre. L'entreprise pourra regarder comment est optimisée sa création et réutiliser les trouvailles par la suite. De plus, les conditions d'utilisations impliquent que les entreprises dépassant la barre des 700 millions d'utilisateurs actifs devront demander une licence à Meta. Un chiffre très haut qui empêche son utilisation par Amazon ou Google.

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

Le modèle peut dès à présent être téléchargé via AWS, Hugging Face et d'autres fournisseurs. Cette approche change de la technique utilisée pour la première version de LLaMA : le modèle était accessible sur liste d'attente uniquement pour les chercheurs… mais a fuité sur 4chan en quelques heures.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Deux sénateurs se posent des questions sur les dons à l’investiture de Trump, et demandent des réponses à Tim Cook

17/01/2025 à 22:15

• 14


Quel avenir pour les usines de processeurs sous l’ère Trump ?

17/01/2025 à 21:00

• 5


TSMC : les usines américaines ne fabriqueront pas les puces les plus avancées

17/01/2025 à 18:30

• 6


Deezer a été optimisé pour les Mac Apple Silicon

17/01/2025 à 17:30

• 10


DSA : Google ne veut pas de fact-checking dans Search ou sur YouTube

17/01/2025 à 16:00

• 112


Soldes : promo générale à Fnac sur de gros MacBook Pro M3 Pro

17/01/2025 à 14:15

• 14


Trade In Apple Store : quels tarifs de reprise pour les anciens iPhone, iPad, Mac…

17/01/2025 à 12:30

• 16


Les cœurs E des puces M4 plus rapides que ceux des puces M4 Pro

17/01/2025 à 12:15

• 7


Apple présente un ordinateur vintage de sa filiale Lumon sur sa page d'accueil

17/01/2025 à 11:15

• 19


Microsoft augmente les tarifs de ses formules Microsoft 365 pour y ajouter Copilot

17/01/2025 à 10:30

• 29


Avec Focus, Raycast propose une alternative au mode de concentration de macOS

17/01/2025 à 08:00

• 8


Ce keynote de 1997 montre le fossé entre l'Apple des années 90 et celui des années 2020

16/01/2025 à 21:30

• 30


À Barcelone, l'iPhone devient une carte de transport… sans passer par Apple Pay

16/01/2025 à 20:30

• 24


Craignant être privés de TikTok, des utilisateurs US partent massivement sur RedNote 🆕

16/01/2025 à 20:15

• 20


macOS Sequoia 15.3 passe en bêta 3

16/01/2025 à 19:30

• 0


Samsung aurait voulu graver ses Exynos chez TSMC, qui aurait refusé

16/01/2025 à 18:00

• 7