Ouvrir le menu principal

MacGeneration

Recherche

Une dose d’IA générative locale dans Notes grâce à NotesOllama

Stéphane Moussie

mardi 20 août 2024 à 11:15 • 16

Logiciels

En attendant l’arrivée d’Apple Intelligence dans l’Union européenne, une solution existe d’ores et déjà pour insuffler de l’IA générative à Notes sur Mac. NotesOllama rend accessible dans l’application les grands modèles de langage (LLM) installés sur votre ordinateur. Comme son nom le laisse deviner, l’utilitaire s’appuie sur Ollama, un moyen très simple pour installer et exécuter des LLM en local.

À condition que vous ayez installé au préalable un LLM avec Ollama1, donc, NotesOllama ajoute un petit bouton dans la fenêtre de rédaction de Notes pour interagir avec ce modèle lorsque vous sélectionnez du texte. Neuf commandes en anglais sont préinstallées (résumer la sélection, expliquer, répondre…) et il est possible d’en ajouter des personnelles en modifiant un fichier de configuration.

Vidéo MacGeneration

La qualité des résultats des commandes dépend entièrement du modèle sélectionné. Dans l’exemple ci-dessus, j’utilise Phi-3-mini, un petit modèle de Microsoft qui a l’avantage de consommer assez peu de ressources. À vous de choisir le modèle le plus approprié en fonction de vos besoins et de la puissance de votre Mac.

Si NotesOllama permet bien de profiter d’un LLM local assez simplement dans Notes, l’intégration n’est pas sans défaut. L’utilitaire colle en fait chaque caractère généré à l’aide du presse-papier. Dans mon cas, ce bricolage interfère pour une raison ou une autre avec le lanceur Alfred que je dois donc fermer pour l’occasion. Un autre inconvénient est qu’il faut garder la fenêtre de Notes ouverte pendant la génération, sans quoi celle-ci cesse.

NotesOllama est donc loin d’égaler le niveau d’intégration d’Apple Intelligence, mais il donne néanmoins un avant-goût intéressant de l’IA générative dans Notes pour les plus impatients. L’utilitaire est gratuit et open source.

Pas d

Pas d'iPhone 15 Pro ? Les alternatives aux fonctions Apple Intelligence


  1. Après avoir installé Ollama, ouvrez le Terminal puis saisissez ollama suivi de run et du nom du modèle que vous voulez installer. Par exemple, ollama run phi3:mini pour le modèle Phi-3 de Microsoft dans sa petite version.  ↩︎

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Test du QNAP QNA-UC10G1T, le premier adaptateur Ethernet 10 Gb/s en USB4, parfait pour profiter de la fibre ultra-rapide

20:30

• 7


macOS 15.4 entre en Release Candidate avec Apple Intelligence et les catégories dans Mail

18:49

• 8


Tim Cook en Chine en pleine préparation du lancement d’Apple Intelligence

18:36

• 3


Peakto donne accès à distance aux photos stockées sur votre Mac, sans abonnement cloud

17:45

• 11


A ce prix, oubliez iWork et passez enfin à Microsoft Office 📍

17:16


Asahi Linux prend en charge le microphone des Mac portable, et ça a été compliqué

16:15

• 6


L’AirPods Max USB-C va prendre en charge le lossless et la latence réduite grâce à une mise à jour

14:48

• 90


Apple a modifié le SSD du Mac Studio 2025 pour le rendre plus rapide

12:45

• 12


Un injecteur PoE officiel pour les cartes Raspberry Pi

10:50

• 5


Dites adieu aux éditeurs PDF encombrants : UPDF fait tout, 10x plus vite ! 📍

09:11


Nanoleaf imagine un ruban LED d’ambiance à coller derrière l’écran de son ordinateur

08:03

• 34


Apple Watch boostée à l’IA et l’UE qui met des bâtons dans les roues : la semaine Apple

23/03/2025 à 20:00

• 28


Comment surélevez-vous votre iMac ?

23/03/2025 à 11:00

• 71


Tous les Cybertruck produits rappelés pour... des morceaux de carrosserie qui se détachent

22/03/2025 à 21:00

• 83


Promo : l'iPad 10 64 Go à 285 €, soit son plus bas prix !

22/03/2025 à 11:57

• 15


Test des Mac Studio de 2025 : une drôle de gamme

22/03/2025 à 10:00

• 48