Ouvrir le menu principal

MacGeneration

Recherche

Une dose d’IA générative locale dans Notes grâce à NotesOllama

Stéphane Moussie

Tuesday 20 August 2024 à 11:15 • 16

Logiciels

En attendant l’arrivée d’Apple Intelligence dans l’Union européenne, une solution existe d’ores et déjà pour insuffler de l’IA générative à Notes sur Mac. NotesOllama rend accessible dans l’application les grands modèles de langage (LLM) installés sur votre ordinateur. Comme son nom le laisse deviner, l’utilitaire s’appuie sur Ollama, un moyen très simple pour installer et exécuter des LLM en local.

À condition que vous ayez installé au préalable un LLM avec Ollama1, donc, NotesOllama ajoute un petit bouton dans la fenêtre de rédaction de Notes pour interagir avec ce modèle lorsque vous sélectionnez du texte. Neuf commandes en anglais sont préinstallées (résumer la sélection, expliquer, répondre…) et il est possible d’en ajouter des personnelles en modifiant un fichier de configuration.

Vidéo MacGeneration

La qualité des résultats des commandes dépend entièrement du modèle sélectionné. Dans l’exemple ci-dessus, j’utilise Phi-3-mini, un petit modèle de Microsoft qui a l’avantage de consommer assez peu de ressources. À vous de choisir le modèle le plus approprié en fonction de vos besoins et de la puissance de votre Mac.

Si NotesOllama permet bien de profiter d’un LLM local assez simplement dans Notes, l’intégration n’est pas sans défaut. L’utilitaire colle en fait chaque caractère généré à l’aide du presse-papier. Dans mon cas, ce bricolage interfère pour une raison ou une autre avec le lanceur Alfred que je dois donc fermer pour l’occasion. Un autre inconvénient est qu’il faut garder la fenêtre de Notes ouverte pendant la génération, sans quoi celle-ci cesse.

NotesOllama est donc loin d’égaler le niveau d’intégration d’Apple Intelligence, mais il donne néanmoins un avant-goût intéressant de l’IA générative dans Notes pour les plus impatients. L’utilitaire est gratuit et open source.

Pas d

Pas d'iPhone 15 Pro ? Les alternatives aux fonctions Apple Intelligence


  1. Après avoir installé Ollama, ouvrez le Terminal puis saisissez ollama suivi de run et du nom du modèle que vous voulez installer. Par exemple, ollama run phi3:mini pour le modèle Phi-3 de Microsoft dans sa petite version.  ↩︎

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner