Le puissant modèle de langage qu'a présenté Meta le mois dernier est déjà en fuite. Baptisé LLaMA, il ne s'agit pas d'un chatbot comme ChatGPT ou Bing mais d'une base brute utilisée pour faire tourner un service similaire. S'il était censé rester réservé à une poignée de chercheurs et aux laboratoires s'inscrivant sur une liste d'attente, The Verge rapporte qu'un fichier torrent de LLaMA circule d'ores et déjà sur 4chan et est désormais disponible sur GitHub. Téléchargé massivement, certains s'inquiètent des conséquences de la diffusion à grande échelle d'une telle technologie.
Meta a présenté LLaMA comme un modèle visant à aider les ingénieurs à faire avancer leurs travaux sur l'IA. L'entreprise promet que sa technologie surpasse le GPT-3 d'OpenAI tout en nécessitant moins de ressources. À terme, LLaMA devrait être la base faisant tourner les futurs services liés à l'IA des plateformes de Meta, qui a visiblement prévu un équivalent à ChatGPT. L'entreprise n'a pas démenti la fuite dans ses communiqués.
Meta ne veut pas se laisser faire par ChatGPT et va mettre de l'IA dans WhatsApp et Instagram
Télécharger les fichiers en fuite de LLaMA ne devrait pas servir à grand-chose pour l'utilisateur lambda : il ne s'agit pas d'un chatbot livré clef en main, mais de son moteur de plus de 200 Go. Il faut donc des connaissances techniques pour en faire quoi que ce soit. Le modèle n'a pas été affiné pour la discussion, et il nécessite également une solide configuration pour fonctionner.
Les conséquences de cette fuite inquiètent. Sur les forums, de nombreux internautes s'activent pour faire tourner le modèle sur leurs ordinateurs personnels et arrivent déjà à générer du texte. Cet évènement risque d'être un grand changement dans le secteur étant donné que LLaMA pourrait devenir le premier chatbot open source téléchargeable par n'importe qui, là où OpenAI et Microsoft gardent précieusement sous clef les composants de leurs services. Les dérives d'un tel programme entre de mauvaises mains ne sont pas difficiles à imaginer : génération de spams, de fake news, de contenus problématiques…
Ce scénario est similaire à celui que nous avons connu pour les modèles de générations d'images. Si le DALL-E d'OpenAI a grandement popularisé la technologie en la rendant ultra accessible et grand public, une alternative open source fonctionnant en local a rapidement été lancée. Les garde-fous de celle-ci pouvant être désactivés facilement, cela a eu pour effet de poser de nombreuses questions.
DALL-E, Stable Diffusion (2/2) : des IA qui soulèvent de nombreuses questions
Deux points de vue s'opposent sur le sujet des IA. Certains veulent tout ouvrir afin de vite mettre en évidence les failles et d'éviter que tout ne fonctionne qu'au travers d'une poignée d'entreprise. En face, d'autres pensent que ces modèles potentiellement dangereux devraient être gardés privés pour éviter les dérives. Il ne reste plus qu'à attendre de voir quelles seront les conséquences de cette fuite, en bien comme en mal.