Ouvrir le menu principal

MacGeneration

Recherche

L'intelligence artificielle, du data center au microcontrôleur

Stéphane Moussie

samedi 13 avril 2019 à 10:30 • 77

Matériel

Appuyez sur la petite baguette magique, et Pixelmator Photo embellit automatiquement votre image. De la magie ? Non, du machine learning, comme l’indiquent les initiales ML à côté de la baguette.

Grâce à leur moteur neuronal dédié, les puces Apple A11 et A12 des terminaux iOS sont capables d’effectuer des centaines de milliards d’opérations d’apprentissage automatique par seconde, ce qui rend le coup de baguette magique quasi instantané. Ce n’est toutefois que le bout de la chaîne.

On ne s’en rend pas compte quand on utilise Pixelmator Photo ou toute autre app exploitant des techniques de machine learning, mais l’éditeur a dû préparer son tour.

On parle, en intelligence artificielle, d’une phase d’entraînement. Dans le cas de Pixelmator Photo, 20 millions de photos ont été analysées pour que l’app « apprenne » à modifier correctement les vôtres. Un volume énorme qui implique un matériel adapté. C’était le thème de la table ronde « le hardware de l’IA » qui s’est tenue le 11 avril, lors du salon SIDO à Lyon.

Plus doués que les CPU pour les traitements parallèles, les GPU ont pris une place primordiale dans les procédures d’entraînement, pose en introduction Serge Palaric, VP Embedded EMEA chez Nvidia. Le spécialiste des GPU propose depuis plusieurs années tout un éventail de solutions et de produits dédiés à l’intelligence artificielle, de la carte graphique indépendante jusqu’à l’utilisation directe de ses centres de données.

C’est également le cas d’IBM, qui a noué un partenariat avec Apple l’année dernière. Les développeurs iOS peuvent faire appel à la plateforme Watson pour entraîner leurs algorithmes avec de nombreuses données et ensuite les intégrer à leur application grâce au framework Core ML d’Apple.

« Chez IBM, les data centers ne sont pas uniformes », indique Xavier Vasques, IBM Systems Technology Center Director. Il est nécessaire de diversifier l’équipement des centres de données pour optimiser les traitements, car chaque projet a ses spécificités. « Le temps passé à entraîner un modèle, c’est du temps qui ralentit l’innovation. [L’entraînement] peut durer des semaines, voire des mois », fait-il valoir.

Dans ce contexte, « il faut penser le hardware différemment, trouver de nouvelles approches pour s’affranchir des goulots d’étranglement. » Un exemple à suivre, c’est le cerveau humain, un cerveau qui « fait rêver » IBM et les autres experts. Plusieurs entreprises planchent actuellement sur des puces neuromorphiques, c’est-à-dire des puces qui miment le fonctionnement du cerveau.

« Grâce à ses circuits neurone-synapse, notre cerveau dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique le chercheur Damien Querlioz dans un dossier du CNRS. En imitant ce fonctionnement, les puces neuromorphiques consomment beaucoup moins d’énergie que les autres neurones artificiels.

Un autre champ d’exploration dans le hardware de l’intelligence artificielle est l’ordinateur quantique, un nouveau type d’ordinateur aux performances exceptionnelles. Pourquoi dès lors ne pas concentrer toute sa R&D sur l’informatique quantique, si elle est si remarquable ? Parce qu’elle sera dédiée à des tâches spécifiques, elle ne remplacera pas tous les ordinateurs traditionnels, répond Xavier Vasques. Et puis avant que l’informatique quantique ne se démocratise, il faut répondre aux problématiques du quotidien, commente Nicolas Coudert, IoT Business Lead chez Microsoft.

Table ronde « le hardware de l’IA » au SIDO 2019. Crédit : MacGeneration (CC BY-SA 4.0)

L’une de ces problématiques, c’est la capacité à exécuter le modèle entraîné, la phase d’inférence, là où c’est le plus pertinent. Dans une voiture autonome, vous n’allez pas attendre que les données enregistrées par les capteurs soient envoyées vers le data center, analysées là-bas, puis que la réponse soit transmise à la voiture pour que celle-ci se mette à freiner quand une personne déboule devant elle. Il y a suffisamment de place dans un véhicule pour caser un ordinateur qui traite les tâches en local — c’est ce qui est appelé dans l’industrie l’edge computing, le traitement des données à la périphérie, en opposition au cloud computing, centralisé.

Mais les contraintes de place sont parfois extrêmes. Il n’est pas possible de faire entrer une carte graphique ni même une puce de la taille de l’Apple A12 dans tous les objets que l’on veut rendre intelligents. La start-up toulonnaise Cartesiam entend répondre à ce cas de figure avec un framework capable d’apporter l’intelligence artificielle, tant la phase d’apprentissage que celle de l’inférence, dans des objets munis de simples microcontrôleurs très peu puissants.

L’exemple donné par Joël Rubino, PDG de Cartesiam, est celui de Bob, une sorte de stéthoscope de machines industrielles qui détecte et qualifie les anomalies en écoutant les vibrations. « Tout ça, c’est réalisé dans le capteur, sans connexion au cloud », déclare-t-il, en soulignant que c’est un avantage pour la sécurité, car les données ne sortent pas de l’entreprise.

Faut-il pour autant couper toute connexion au cloud ? Non, car en remontant l’info, une analyse de l’ensemble du parc devient réalisable. « La stratégie edge est complémentaire de celle du cloud », résume Joël Rubino.

Dit autrement, l’intelligence artificielle est une intelligence collective, qui allie le data center au microcontrôleur, l’ordinateur quantique à la puce la plus basique, le big data à la donnée individuelle.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Quand la reconnaissance faciale vous interdit l’entrée d’un concert pour un post sur les réseaux sociaux

20:30

• 0


Apple, Meta : l’Union Européenne aurait prévu des amendes modestes pour limiter les tensions avec Donald Trump

18:45

• 14


Faites le grand ménage de printemps sur votre Mac avec Mac Washing Machine X9 ! 📍

18:10


Le Mac Studio 2025 est compatible avec le HDMI CEC

17:17

• 4


macOS Sequoia empêche l'installation d'une ancienne version de macOS en externe

12:45

• 20


iBoff a développé sa copie du SSD de Mac mini M4, vendue à un prix plus faible qu'Apple

11:15

• 25


GPT-4o : OpenAI peine à suivre la demande pour son nouveau générateur d’images

09:58

• 33


Final Cut Pro se met aussi à la page Image Playgrounds sur le Mac

07:57

• 10


Test du BenQ MA270U : un écran 4K pensé pour le Mac

27/03/2025 à 23:30

• 15


Xhamster et Tukif toujours disponibles en France, protégés du gourdin français par la législation européenne

27/03/2025 à 21:45

• 52


Waymo : l’humain responsable dans quasi tous les cas d’accident avec une voiture autonome de la marque

27/03/2025 à 21:00

• 42


Une RC2 pour macOS 15.4 avec Apple Intelligence et les catégories dans Mail 🆕

27/03/2025 à 19:29

• 23


WhatsApp peut remplacer Téléphone et Messages dans iOS 18

27/03/2025 à 17:53

• 112


Bouygues est déjà dans l'après-ADSL en supprimant ses offres d'abonnement

27/03/2025 à 16:40

• 17


Quel gestionnaire de mots de passe utilisez-vous ?

27/03/2025 à 15:15

• 125


Vanessa Trigub prend la direction des Apple Store

27/03/2025 à 14:45

• 11