Ouvrir le menu principal

MacGeneration

Recherche

L'IA et les modèles de langage peuvent compresser du texte de façon très efficace

Pierre Dandumont

lundi 13 mai 2024 à 17:00 • 20

Logiciels

Un développeur a effectué une petite expérience très intéressante récemment : il a employé un grand modèle de langage (LLM, ce qui est souvent appelé IA, même si c'est un abus de langage) pour compresser du texte. Et le résultat est assez impressionnant, malgré quelques limites.

Les IA peuvent compresser le texte où apparaît ce lapin.

L'exemple porte le nom de Drink Me, pour une bonne raison : Julian a effectué ses essais sur le premier chapitre du livre Les Aventures d'Alice au pays des merveilles. Il a employé llaman.cpp, un logiciel open source qui peut utiliser les modèles LLaMA de Meta.

La décompression en cours.

Le fonctionnement exact est expliqué dans son sujet, mais l'idée est de ne stocker que le nécessaire pour que le logiciel puisse générer le texte à partir des informations stockées dans le modèle. Sur le premier chapitre du livre, qui contient 11 994 caractères, la version compressée ne nécessite que 986 caractères, soit 8 % seulement de la valeur d'origine. C'est très nettement mieux que les programmes de compression classiques, mais avec évidemment quelques contraintes et limites.

Un problème de taille

Le premier défaut est évident : la puissance nécessaire est élevée, et sur plusieurs niveaux. Il a en effet fallu créer le modèle lui-même, et tant la compression que la décompression nécessitent beaucoup de mémoire vive et une bonne puissance de calcul. Le second défaut est un peu différent : la compression est beaucoup moins efficace si le modèle ne contient pas les données au départ (le post d'origine de Julian passe de 3 436 à 2 691 caractères). Ce défaut peut être présenté dans l'autre sens : si le texte à compresser a été employé pour créer le modèle — ce qui est a priori le cas de la version originale d'Alice's Adventures in Wonderland —, la compression est extrêmement efficace.

Cet autre post montre bien les gains : le modèle LLaMA-3-8B (8 milliards de paramètres) permet d'obtenir un fichier 58,4 x plus petit pour le même premier chapitre ou 131 x plus petit pour un texte très courant comme le contenu de la licence GPL v2. Mais pour du texte produit par l'auteur, les résultats sont plus faibles (4,4 x, 5,76 x ou 6,93 x). Dans tous les cas, la compression avec les outils classiques comme GZIP (certes plus rapide) est nettement moins efficace, avec des fichiers environ 2 x plus petits que les originaux.

Dans la pratique, il ne s'agit évidemment pour le moment que d'une sorte de démonstration technologique. Mais qui sait, peut-être que les sociétés qui développent les grands modèles de langage pourraient s'intéresser à cette solution dans le futur, pour ajouter une nouvelle corde à l'arc de « l'IA ».

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

BSOD : Windows 11 veut faire disparaître ses écrans bleus de l’espace public

12:40

• 2


1Password gagne en fluidité avec de nouvelles options de déverrouillage sur Mac

11:07

• 11


Promo : des MacBook Pro M5 avec une remise et une grosse cagnotte vendus par Darty

10:15

• 6


Panne géante chez Cloudflare : comment une simple erreur de config a fait tousser une bonne partie d’Internet

09:50

• 9


Microsoft Office 2021 à vie pour seulement 29,28 € lors du Black Friday 2025 de Godeal24 ! 📍

09:20

• 0


Promo : l’ancien chargeur Apple USB-C 140 Watts à 65 €

09:04

• 2


iWork attend toujours son bain de Liquid Glass

08:40

• 15


WhatsApp va enfin gérer le multi-compte sur iPhone

08:11

• 16


Une vidéo inédite révèle la vision de Steve Jobs pour Pixar

07:10

• 16


Magic Keyboard, Trackpad, chargeur 140 W : une vague de mises à jour firmware chez Apple

06:07

• 2


Asus ProArt PA27JCV : un écran 5K à 675 €, son plus bas prix à ce jour

18/11/2025 à 23:46

• 13


pCloud fait dégringoler le prix de ses forfaits cloud à vie pour le Black Friday ! 📍

18/11/2025 à 23:10

• 0


Une cyberattaque sur un logiciel médical paralyse des soignants et fait craindre une fuite de données

18/11/2025 à 22:39

• 43


Le MacBook Pro M5 avec 24 Go de RAM à 1 799 € et d’autres configs spéciales en promo

18/11/2025 à 21:52

• 17


Google lance Gemini 3 Pro, qui doit être meilleur que GPT-5, Grok ou Claude

18/11/2025 à 18:15

• 65


Les rayons cosmiques ne causeraient pas d'erreurs dans la RAM

18/11/2025 à 17:30

• 19