« L.A. Noire » et le MotionScan > C’est quoi cette tête ?

NewZilla.NET mai 20 2011 - 10:00 par Arnaud Devillard

Une image de bagarre dans le jeu L.A. NoireLe jeu L.A. Noire vient de sortir en Europe et, déjà, on sait qui en est la star. Ce n’est pas vous, le joueur, ni le détective Cole Phelps, que vous incarnez, ni l’acteur Aaron Staton (Mad men)qui lui prête ses traits, pas même le Los Angeles de 1947 reconstitué avec minutie. Non, la star, c’est le MotionScan.

L.A. Noire a été développé par le studio australien Team Bondi en même temps qu’un nouveau dispositif de capture de mouvement (ou motion capture), le MotionScan donc, mis au point par la start-up Depth Analysis. Basée à Sydney, elle a été créée en 2005 expressément pour le projet L.A. Noire.

On utilise le motion capture dans le jeu vidéo depuis le milieu des années 90. Cette technique, à base de marqueurs et de caméras infrarouges permettant de générer sur ordinateur un modèle 3D grossier (une assemblage de triangles), est bien maîtrisée mais pose un problème: l’animation des visages.

Cette partie du corps reste assez complexe à restituer car elle repose essentiellement sur des mouvements musculaires. Contrairement au reste du corps qui s’appuie sur une structure osseuse fournissant nombre de repères aux développeurs pour affiner les modèles 3D.

Capter avec finesse les expressions du visage

Or, L.A. Noire met l’accent sur les expressions des visages des personnages: le gameplay repose sur des interrogatoires et la capacité du joueur à deviner si ses interlocuteurs mentent ou disent la vérité en scrutant leurs visages.

Le MotioScan a été inventé pour capter avec finesse les expressions faciales; le reste du corps des personnages est conçu en motion capture standard. Le visage de l’acteur est filmé dans le studio de Depth Analysis à Culver City, aux Etats-Unis.

Il est cadré simultanément par 16 paires de caméras numériques HD, selon plusieurs angles. Chaque paire simule la vision stéréoscopique humaine, restituant le relief de la partie du visage filmée.

Mais il n’y a aucun marqueur. Les caméras captent le visage et la performance de l’acteur tels quels, mouvements des yeux et voix y compris. Elles enregistrent non pas de simples caractéristiques physiques mais une véritable performance de comédien, comme pour un film en somme. Les diverses positions des caméras permettent de couvrir la tête à 360°, comme le détaille pour NewZilla.NET Jennie Kong, porte-parole de Depth Analysis:

« Chaque paire génère un modèle 3D d’une parcelle de la surface du visage; les seize parcelles sont ensuite assemblées pour former la tête complète. Ce que vous voyez dans le studio correspond à ce que vous obtiendrez dans le jeu (« what you see is what you get »), pas besoin de beaucoup de post-production sur l’animation, comme avec d’autres dispositifs de motion capture ».

Le studio de MotionScanLe modèle 3D est directement exportable, soit dans un moteur de jeu soit dans un logiciel de graphisme ; au final il sera assemblé, au niveau du cou, au reste du corps créé par ailleurs. Ensuite, selon les besoins des scènes, les développeurs ajouteront les éclairages, les ombres, etc., en fonction des décors.

« Nous avons pour l’heure consacré le MotionScan à l’animation faciale, et nous espérons qu’il permettra aux animateurs de se concentrer sur d’autres aspects clefs de l’animation en jeu vidéo, en les libérant de la tâche fastidieuse que représentait la création des expressions faciales. Mais si nous devions ensuite nous mettre à la capture de performance du corps complet, nous ferons évoluer le dispositif. »

Car c’est désormais l’enjeu: la « full body performance ». C’est ce qui est à l’oeuvre dans le film Avatar ou dans le jeu Call of duty: Black Ops. Dans les deux cas, des acteurs en combinaisons équipées des fameux marqueurs de « mocap » ont été filmés par la centaine de caméras du studio Giant.

Le corps, le visage, la voix, tout a été enregistré dans un même élan pour chaque personnage, mais avec encore pas mal de post-production derrière pour « habiller » les structures 3D obtenues. Le studio parisien Quantic Dream, créateur de Heavy rain, a également reconstruit son espace de motion capture en septembre 2010 pour faire désormais de la « full body performance ». Si le MotionScan est employé de cette manière, cela reviendra ni plus ni moins qu’à tourner un film.