La culture du secret chère à Apple est en (petite) partie remise en cause quand il est question d’intelligence artificielle, un domaine où la publication de documents de recherche est une tradition à laquelle même Cupertino se plie. La preuve, l’entreprise vient de publier un long document qui décrit comment elle a entraîné les modèles qui servent de fondation pour Apple Intelligence. Et comme l’a repéré CNBC, cette publication technique révèle quelques secrets, dont un qui semble intéressant : Apple n’a pas utilisé son propre matériel pour entraîner ces modèles.
En effet, l’infrastructure mise en place pour l’entraînement des modèles repose sur les clusters Cloud TPU v4 et v5, des machines hautement spécialisées dans l’intelligence artificielle créées par Google. Le géant de la recherche les utilise pour ses propres besoins depuis 2015 et offre un accès à ces serveurs spécialisés à qui le veut depuis 2017, par le biais de Google Cloud. Est-ce qu’Apple a utilisé l’infrastructure complète fournie par Google ? C’est ce que CNBC avance et c’est logique, puisque les puces Cloud TPU v4 et v5 ne sont pas publiquement à vendre. Apple n’entre toutefois pas dans ce niveau de détails dans son document et peut-être que l’entreprise a obtenu des puces de Google pour les installer dans ses propres centres de données.
Quoi qu’il en soit, cela ne devrait pas être une surprise que l’entraînement des modèles d’Apple ait été effectué sur du matériel qui ne porte pas de pomme. C’est une activité lourde qui nécessite des puces spécialisées pour être effectuée efficacement et les puces Apple Silicon que l’entreprise va mettre en œuvre dans le Private Cloud Compute ne sont pas adaptées. Sur le marché, les TPU de Google sont parmi les meilleures et peut-être plus faciles d’accès que les puces équivalentes de Nvidia, surtout si on envisage que c’est une solution intermédiaire.
Apple compte sans doute créer sa propre infrastructure spécialisée dans l’IA avec ses propres puces optimisées exclusivement pour ce rôle. Utiliser les serveurs de Google en attendant qu’elle soit prête semble dès lors logique, au lieu d’acheter des puces Nvidia non seulement chères, mais en plus assez difficiles d’accès.