Ouvrir le menu principal

MacGeneration

Recherche

L'image de synthèse, d'hier à demain

Arnaud de la Grandière

vendredi 12 août 2011 à 16:30 • 53

Ailleurs



Si Toy Story fut le premier long métrage intégralement réalisé en images de synthèse en 1995, ce fut Tron (premier du nom) qui marqua les esprits pour le nombre de plans intégrant des images calculées par ordinateur en 1982. En réalité les images n'étaient alors rendues qu'en mode fil de fer, les couleurs ayant été ajoutées à la main par les artistes de Disney…

Cinq ans auparavant, une scène de la Guerre des étoiles montrait l'un des premiers plans du cinéma calculé par un ordinateur, réalisé par Larry Cuba à l'aide des moyens de l'université de l'Illinois, qui semblent aujourd'hui indignes du moindre processeur. Chaque image de l'animation fut calculée « à la main », comme le dévoile la fascinante vidéo ci-dessous.



Avec la démocratisation de ces technologies, la télévision s'en empare : le clip de Money for nothing des Dire Straits fut le premier à utiliser l'image de synthèse de manière extensive.



Durant les années 90, les progrès techniques furent mis à profit par Hollywood : Abyss (1989), Terminator 2 (1991), ou encore Jurassic Park (1993) représentèrent chacun une étape marquante de ces progrès. Industrial Light & Magic, le studio d'effets spéciaux de George Lucas, régnait sans partage sur cette industrie, et reste aujourd'hui encore un acteur de premier plan. Le Mac a droit à sa petite part grâce notamment à Electric Image, un logiciel 3D alors prestigieux qui ne fonctionne que sur Mac (et auquel on doit notamment le rêve atomique de Sarah Connor dans Terminator 2). Un des superviseurs des effets visuels chez ILM, John Knoll, est d'ailleurs l'un des pères de Photoshop (lire Photoshop a 20 ans et Photoshop : la mère de toutes les démos).

Mais si les techniques de rendu sont de plus en plus fidèles, à mesure que la puissance des fermes de calcul permet de réaliser ce qui était encore impensable il n'y a pas si longtemps, d'autres techniques sont venues renforcer encore le réalisme : les modèles physiques simulent les interactions entre les solides de manière bien plus réaliste qu'à la main, puis la fourrure (Jumanji, 1995), les particules (Twister, 1996), les tissus ou les fluides (En pleine tempête, 2000), l'intelligence artificielle permet l'animation des foules innombrables (Le seigneur des anneaux, 2001).

L'œil humain est particulièrement difficile à tromper : qu'un seul détail infime manque à l'appel et l'image semblera grossièrement truquée. Si Jurassic Park a été le premier film à présenter des créatures vivantes réalistes (quoique présentant l'avantage de ne souffrir d'aucune comparaison avec la réalité), il aura fallu simuler la manière dont les muscles roulent sous la peau, et dont celle-ci bouge de manière dynamique (inertie et gravité comprises) pour gagner en crédibilité sur l'animation image-par-image de Phil Tippett.



Le Saint Graal restait encore l'acteur virtuel : un être humain entièrement calculé par ordinateur. Mais c'était sans compter sur la « vallée dérangeante » : un phénomène de dégoût que l'on ressent lorsqu'un personnage est ultra-réaliste, mais pas encore assez pour nous pleinement nous convaincre. Final Fantasy, les créatures de l'esprit en 2001 en fait l'éloquente démonstration.



Si les images fixes peuvent faire illusion, c'est lorsque le corps s'anime que les choses deviennent délicates. La peau est translucide, les micro-mouvements du moindre muscle rendent l'animation à la main condamnée à la rigidité cadavérique. La technique du « motion capture » a certes amélioré les choses, mais reste trop limitée pour parfaitement retranscrire le jeu d'un acteur dans sa totalité. Ça n'est qu'avec Gollum dans Le seigneur des anneaux qu'un acteur, Andy Serkis, animera de ses propres expressions le visage et le corps d'une créature virtuelle de manière crédible.

Différentes techniques pour capturer le plus infime détail du jeu d'un acteur voient le jour, comme Light Stage (utilisé dans L'étrange histoire de Benjamin Button, the Social Network ou Avatar). Il s'agit d'un dôme recouvert de projecteurs et de capteurs photographiques, qui illuminent les acteurs sous tous les angles, et prennent leur image à la perpendiculaire de l'éclairage plusieurs dizaines de fois par seconde, ce qui permet de manipuler l'éclairage et l'angle de vue en post-production en totale liberté, pour intégrer un acteur dans n'importe quelle scène.



Mais avec ces prises de vue « virtuelles », qui enregistrent les mouvements des acteurs, la caméra elle-même devient virtuelle et peut être positionnée selon les moindres désirs du réalisateur. Mieux encore, une simple tablette devient une fenêtre sur l'apparence que les acteurs auront au final, en temps réel. Les machines sont devenues assez puissantes pour faire un rendu réaliste en temps réel, qui sert tant en pré-production en guise de story board des temps modernes que sur le plateau de tournage pour avoir un aperçu des images finales. En effet, une fois arrivé au rendu réaliste, c'est la rapidité de ce rendu qui offre plus de souplesse aux réalisateurs, mais surtout qui profile des retombées beaucoup plus larges.

Et s'il faut encore des machines surpuissantes et hors de prix pour satisfaire les besoins d'Hollywood, ces technologies sont en passe d'arriver dans l'ordinateur moyen, à plus forte raison avec le renfort du cloud computing (lire : OnLive viole la loi de Shannon).

Au-delà des techniques de capture, le rendu des propriétés physiques de la lumière permet un réalisme confondant, puisqu'il reproduit dans ses moindres propriétés la manière dont notre environnement est visible. Cette technique, appelée le Path Tracing, a grandement bénéficié du calcul parallèle et de la puissance des processeurs graphiques, à tel point qu'on envisage qu'il soit accessible en temps réel sur l'ordinateur du commun des mortels d'ici quelques années (lire : OpenCL dynamite le Path Tracing et : Fractal Lab : WebGL en mode onirique).



Si pour l'heure ce type de rendu présente encore du « bruit » (les rayons lumineux sont « lancés » aléatoirement), nombre de travaux sont actuellement en cours pour optimiser le calcul au maximum afin d'obtenir une qualité supérieure plus rapidement encore. Les jeux qui utiliseront ce procédé se profilent d'ici à quelques années.

Mais le rendu en lui-même n'est pas la seule limite du temps-réel : le nombre de polygones affichables en simultané à l'écran a certes augmenté de manière considérable, mais reste encore trop limité pour prétendre au réalisme : les objets restent anguleux, ou surgissent de nulle part à mesure qu'ils deviennent affichables. Une société fait beaucoup parler d'elle depuis un an à ce sujet : Euclideon promet un moteur de rendu en voxels en temps réel.

Le voxel est à la 3D ce que le pixel est à la 2D : une unité de matière qui se détache de la modélisation en polygones. C'est notamment cette technique qui est utilisée en imagerie médicale pour l'affichage d'organes tridimensionnels, mais c'est une technique particulièrement gourmande en calcul, notamment parce qu'elle ne permet pas le tri en profondeur : chaque particule de matière doit être calculée, qu'elle soit visible ou non par la caméra. Euclideon promet une solution particulièrement véloce, grâce à un système de tri des voxels qui évite de calculer ceux qui ne seront pas visibles : ainsi il ne peut y avoir plus de voxels à l'écran que le nombre de pixels de sa définition. La méthode permet donc une finesse encore inégalée pour les modèles 3D, et le tout en nombre conséquent, sans impact sur la vitesse de calcul (jusqu'à intégrer des grains de sable tridimensionnels). De quoi donner le tournis et envisager, en y ajoutant un rendu en Path Tracing, une réalité virtuelle à la hauteur de la Matrice. À tel point que nombre d'observateurs se sont montrés dubitatifs face aux affirmations d'Euclideon, qui promet de revenir prochainement avec une démonstration téléchargeable.



On mesure les incroyables progrès qui ont été réalisés depuis que les premières images calculées par ordinateur se sont immiscées dans le cinéma, il y a une trentaine d'années, d'autant plus que ces animations ont longtemps été réputées pour nécessiter des heures de calcul pour chaque image. D'ici cinq à dix ans, chaque ordinateur sera en mesure d'en faire autant en temps réel, avec un niveau de détail encore impensable il y a peu. Ce niveau de réalisme ne sera qu'un moyen et non plus une fin en soi : reste à voir ce que nous en ferons.
illustration magazine 25 ans

MacGeneration a 25 ans !

Participez à la fête et découvrez l’histoire de votre site favori en précommandant notre magazine exclusif.

Je précommande le magazine

Intrusion informatique, quand une entreprise joue le jeu de la communication ouverte

22/11/2024 à 20:45

• 7


Le SSD de certains MacBook Pro M4 Max atteint presque 11 Go/s

22/11/2024 à 20:30

• 5


Les meilleures promos du Black Friday : AirPods Pro 2, iPad 10, serrure connectée…

22/11/2024 à 18:30

• 9


Test du système mesh Wi-Fi 7 Netgear Orbi 970 : une poignée de mégabits, pour quelques centaines d’euros de plus

22/11/2024 à 17:00

• 8


Décodeur Orange : mise en veille automatique du boitier par le téléviseur

22/11/2024 à 16:30

• 13


macOS 15.2 : Safari dédouble ses fonctions d'import de données

22/11/2024 à 15:02

• 5


Buy Now : un documentaire sur la surconsommation avec le CEO d’iFixit et un ancien d’Apple

22/11/2024 à 12:15

• 60


Protégez votre Mac pour seulement 2,03 €/mois avec CyberGhost VPN : l'offre Black Friday à ne pas manquer ! 📍

22/11/2024 à 11:49


OpenAI envisagerait de lancer un navigateur web

22/11/2024 à 11:15

• 19


Black Friday : le Creative Cloud ainsi que les apps Affinity et DxO jusqu’à - 55 %

22/11/2024 à 10:10

• 13


Palworld est en précommande sur Mac, la sortie repoussée à 2025 🆕

22/11/2024 à 09:47

• 19


Black Friday : de bonnes remises sur les MacBook Pro M3

22/11/2024 à 09:47

• 3


Publicité : l'iPhone 16 Pro décolle à plat grâce à sa puce surpuissante 🆕

22/11/2024 à 09:33

• 14


Le Bitcoin flirte avec les 100 000 $

22/11/2024 à 09:00

• 104


Le vrai nouveau Siri, celui alimenté par une IA générative, ne sortirait pas avant… 2026

22/11/2024 à 08:30


Satechi annonce un hub pour le Mac mini M4

21/11/2024 à 21:30

• 28