Ouvrir le menu principal

MacGeneration

Recherche

ChatGPT : comment Microsoft a créé une infrastructure massive pour entraîner le modèle de langage d'OpenAI

Félix Cattafesta

lundi 13 mars 2023 à 18:00 • 48

Ailleurs

Si les modèles du type ChatGPT ou DALL-E coûtent très cher à utiliser, ils sont aussi très onéreux à mettre sur pied. Microsoft a travaillé avec OpenAI pour former ses IA et a donné quelques détails sur les coulisses de l'opération. Les modèles ont nécessité des dizaines de milliers de cartes graphiques organisées d'une manière unique, dans une infrastructure de calcul intensif tournant à plein régime.

Image : Microsoft.

Le défi était de taille. « Il faut non seulement disposer de la plus grande infrastructure, mais aussi être en mesure de la faire fonctionner de manière fiable pendant une longue période », explique Nidhi Chappell, cheffe de produit Microsoft pour le calcul haute performance et l'IA Azure . Son entreprise a commencé à travailler avec OpenAI en 2019, lorsque les deux boîtes ont signé un premier partenariat. Celui-ci a été reconduit, Microsoft ayant depuis investi des milliards de dollars dans la startup.

Pour entrainer le modèle, Microsoft a donc dû construire une infrastructure sans précédent comportant des milliers de cartes graphiques NVIDIA optimisées pour l'IA. Celles-ci ont été reliées entre elles par un réseau à haut débit et à faible latence basé sur l'architecture NVIDIA Quantum InfiniBand. Le matériel est toujours en évolution : Microsoft a annoncé qu'elle intégrait désormais la dernière puce spécialisée de NVIDIA (H100), qui coûte plus de 30 000 euros pièce. « Nous avons construit une architecture de système capable de fonctionner et d'être fiable à très grande échelle. C'est ce qui a permis à ChatGPT de voir le jour », ajoute Nidhi Chappell.

Des milliers de cartes graphiques ont donc été reliées les unes aux autres, dans un branchement à une échelle jamais testée auparavant. « Personne ne savait avec certitude si le matériel pouvait être poussé aussi loin sans se briser », explique le CTO du groupe. Les GPU communiquent tous ensemble lors de certaines étapes de calcul, tandis que de nouveaux ont été ajoutés au fur et à mesure que les besoins évoluaient. Microsoft dit avoir avancé en cherchant jusqu'où il pouvait pousser cette infrastructure, et Nidhi Chappell précise :

Comme ces travaux concernent des milliers de GPU, il faut s'assurer de disposer d'une infrastructure fiable, puis d'un réseau en arrière-plan pour pouvoir communiquer plus rapidement et être en mesure de travailler pendant des semaines […] Il ne s'agit pas d'acheter un tas de GPU, de les brancher ensemble et de les faire fonctionner ensemble. Il y a beaucoup d'optimisation au niveau du système pour obtenir les meilleures performances, et cela vient avec beaucoup d'expérience sur plusieurs générations.

Microsoft explique notamment disposer d'une partie logicielle offrant une utilisation plus efficace des cartes graphiques et de l'équipement réseau. Cela lui a permis de former ses modèles de manière plus économe tout en prenant moins de temps. Cette installation a tout de même coûté une fortune : « probablement plus » qu'une centaine de millions de dollars d'après le vice-président exécutif de Microsoft.

Centre de données de Microsoft dans l'état de Washington. Image : Microsoft.

Certains paramètres ont dû être pris en compte : un tel nombre de cartes graphique demande énormément d'énergie et dégage de la chaleur. Microsoft a donc dû réfléchir à l'endroit où seraient placées les machines et où se trouveraient les alimentations électriques. Les serveurs étant dispersés à travers le monde, il a fallu trouver des techniques pour les garder à une température constante dans les climats chaud, froid ou humide des différents centres de données.

Microsoft cherche désormais à optimiser son modèle existant du mieux possible et doit faire face aux aléas divers et variés. Dernièrement, l'entreprise a par exemple manqué de chemin de câbles et a dû en fabriquer elle-même. La firme de Redmond a également réfléchi à un moyen de caler plus de serveurs dans un seul bâtiment pour ne pas avoir à attendre la fin de la construction des nouveaux. Sur le long terme, toute cette infrastructure va être mise à profit pour former d'autres modèles.

illustration magazine 25 ans

MacGeneration a 25 ans !

Participez à la fête et découvrez l’histoire de votre site favori en précommandant notre magazine exclusif.

Je précommande le magazine

Satechi annonce un hub pour le Mac mini M4

21/11/2024 à 21:30

• 16


L'Apple Watch Ultra 2 et quatre autres montres à l'épreuve du marathon de New York

21/11/2024 à 15:07


Pour son Black Friday, Apple offrira jusqu’à 150 € en carte cadeau

21/11/2024 à 15:02

• 10


Antitrust : le DoJ réclame officiellement que Google vende Chrome

21/11/2024 à 10:32

• 97


Apple, Anker : de nombreux adaptateurs secteur en promo (jusqu’à -33 %)

21/11/2024 à 10:02

• 3


Les meilleures offres de la Black Week. Tout au long du mois de novembre

Partenaire


Le SSD Thunderbolt 5 d'OWC est disponible : le plus rapide du marché, mais aussi le plus cher

20/11/2024 à 21:30

• 15


Test de l’iMac 24" M4 : haut en couleur

20/11/2024 à 20:30

• 27


Promotion Black Friday de Godeal24 : Microsoft Office à - 80 %, c'est maintenant 📍

20/11/2024 à 20:22


macOS 15.2 : quatrième bêta développeur, et troisième bêta publique 🆕

20/11/2024 à 19:56

• 8


Refurb : -220 € sur le MacBook Air M3 en 16/1 To

20/11/2024 à 17:45

• 38


Aqara commercialise aussi un détecteur de fumée connecté compatible HomeKit (avec code promo 🆕)

20/11/2024 à 15:25


Apple vs DoJ : la Pomme va demander à un juge fédéral d’abandonner les poursuites

20/11/2024 à 15:09

• 57


Apple vend désormais elle-même des espaces publicitaires dans Apple News

20/11/2024 à 14:38

• 8


Beats : Erling Haaland fait de la pub à l'ancienne

20/11/2024 à 12:15

• 12


YouTube : IMG_0001 déterre de vieilles vidéos filmées à l’iPhone

20/11/2024 à 11:44

• 9