Télévision: Comment et pourquoi TF1 a cédé aux sirènes de l'immersion
Actualisé

TélévisionComment et pourquoi TF1 a cédé aux sirènes de l'immersion

Grace à un moteur graphique de jeu vidéo, le 20h de la première chaîne de France nous plonge au cœur des éléments. «Au service de l’info, pas du spectacle», précise Yani Khezzar, responsable de l’innovation.

par
lematin.ch

Le reportage diffusé sur TF1 au début de mois de février 2020. Le 20h inaugurait son premier reportage en immersion fait maison avec un moteur de jeu vidéo.

Le 3 février dernier, un sujet du JT de 20h de TF1 nous propulsait sur Mars, pour nous montrer à quoi pourrait ressembler la vie humaine sur la planète rouge. A l’image, Yani Khezzar, responsable de l’innovation pour l’info sur la première chaîne française, se retrouvait ainsi intégré à un décor en 3D ultraréaliste, avec une caméra se baladant à la surface martienne, d’abord au pied d’un vaisseau spatial en train d’atterrir puis pénétrant à l’intérieur des modules d’habitation destinés à abriter les futurs astronautes. Pour TF1, il s’agissait d’une petite révolution: le premier reportage réalisé grâce à Unreal Engine, un moteur graphique habituellement utilisé pour les jeux vidéo, mais appliqué ici à l’information, pour un voyage complètement immersif.

Yani Khezzar (image: TF1)

Yani Khezzar (image: TF1)

Yani Khezzar nous explique ce que ce moteur graphique a de si spectaculaire.

En quoi consiste cette technologie?

Unreal Engine est un moteur graphique créé dans les années 90 par Epic Games. A l’origine il était uniquement destiné au monde du jeu vidéo, utilisé pour des jeux comme «Unreal Tournament», «Deus Ex» ou plus récemment «Fortnite». Mais au fur et à mesure que le moteur s’est perfectionné, les créateurs se sont rendus compte qu’ils avaient tout intérêt à le proposer à d’autres développeurs pour l’enrichir et l’améliorer.

Du coup, le moteur s’est ouvert à d’autres milieux, chez les architectes avec des modélisation d’immeubles en 3D, au cinéma pour faire des pré-rendus d’effets spéciaux (ndlr: et même pour incruster des acteurs dans des décors virtuels ), ou carrément créer des personnages comme certains droïdes dans les derniers «Star Wars»…

Enfin, la chaîne The Weather Channel, aux Etats-Unis, s’est mis à s’en servir pour fabriquer des décors virtuels afin de montrer les conséquences de diverses catastrophes naturelles et expliquer à la population pourquoi il ne faut pas prendre sa voiture quand il y a une montée des eaux, ou quoi faire en cas d’ouragan. Le tout en invitant sur le plateau des tornades ou en s’immergeant eux-mêmes dans une montée des eaux. Ils ont d’ailleurs reçu un Emmy Award pour ces formats.

C’est donc ce que vous visez à TF1?

Pas tout à fait. The Weather Channel le fait à l’américaine avec 10% d’info et 90% de spectacle. Nous, à TF1 on a toujours été très soucieux d’utiliser la réalité virtuelle et augmentée comme un outils de pédagogie avant tout. On ne va pas se mettre à faire du «Star Wars» au JT juste pour se faire plaisir. Le but de ce moteur graphique est avant tout de soutenir un propos. D’offrir une nouvelle narration aux téléspectateurs, encore plus claire. La technologie permet de faire venir sur le plateau non seulement des décors impossibles à filmer mais surtout de manière très réaliste, et de s’immerger dedans, comme ce qu’on a fait avec notre sujet sur Mars, qui est en fait le premier réalisé en interne. Nous utilisions déjà ce moteur depuis quelques mois mais en faisant appel à un prestataire externe. Aujourd’hui, nous sommes maintenant pleinement équipés, avec des informaticiens formés pour utiliser ces nouveaux outils.

Alors comment ça marche? S’agit-il toujours d’un fond vert?

Il y a deux aspects: la réalité virtuelle et la réalité augmentée. Dans le premier cas, comme pour le sujet sur Mars, c’est effectivement toujours un fond vert devant lequel le journaliste se place pour être immergé à 100% dans un décor virtuel. Mais le moteur graphique est aussi capable de faire venir sur le plateau des objets virtuels, en réalité augmentée, posés sur le sol, ou flottant dans les airs,. Cette fois sans fond vert. L’autre jour, pour expliquer un point de la réforme des retraites, nous avons ainsi invité sur le plateau une famille virtuelle en 3D en faisant apparaître à côté d’eux des chiffres sur les pensions de retraite, etc…

Quels sont les avantages par rapport à ce que vous utilisiez jusqu’ici?

Avant, on pouvait créer un décor en réalité virtuelle mais en restant sur une seule scène, un peu comme au théâtre, en se contentant de tourner autour d’un décor. Mais ce nouveau moteur nous a permis de passer du théâtre au cinéma, c’est-à-dire qu’on peut maintenant partir d’un décor et le traverser, déboucher sur une rue, continuer et entrer dans un autre immeuble… Aujourd’hui, tout est possible. On peut commencer en extérieur et demander à la caméra d’avancer sur plusieurs centaines de mètres, comme avec Mars, avant d’entrer dans une maison. Ou l’inverse: commencer à l’intérieur d’un décor et faire reculer la caméra jusqu’à ce qu’elle dévoile un plateau installé sur la lune. Et puis Unreal Engine nous apporte également une qualité graphique supérieure, avec des effets de texture et de luminosité bien plus performants. Sans compter des mises à jour régulières, presque tous les mois, pour améliorer encore la qualité et viser le photo-réalisme.

Combien d’heures de travail a demandé un sujet comme celui sur Mars?

Il faut compter entre 15 jours et 3 semaines selon la complexité de la scène, avec 2 graphistes au minimum. Mais j’insiste: tout ça est au service de l’information, pas du spectacle. Il s’agit d’un journal télé, on fait de l’information. Ça implique un vrai travail de recherche: passer des jours à se renseigner, contacter les spécialistes du sujet, consulter des documents de la NASA, s’appliquer sur les combinaisons portées par les astronautes, etc… Et à partir de là, on lance la fabrication des images. On est très vigilant de ce côté-là.

Et pour la réalité augmentée?

Là c’est plus rapide car vous n’avez pas à construire tout un décor. Juste les objets que vous souhaitez faire intervenir en plateau. On peut même acheter des banques d’objets ou de personnages que l’on peut retoucher à loisir. Ça nous permet d’être beaucoup plus réactif. Par exemple, le jour de l’incendie de Notre-Dame à Paris, il me semble que le soir même, on avait la cathédrale posée sur le plateau, en 3D, et l’on pouvait expliquer aux téléspectateurs ce qui s’était passé minute après minute, à quel endroit le feu avait pris, ce qu’il avait détruit… A l’époque, on devait se contenter de tourner autour. Aujourd’hui, on pourrait pénétrer à l’intérieur du décor pour retrouver par exemple le présentateur dans une pièce bien spécifique.

A quels types de sujets destinez-vous cette technologie?

Ça dépend beaucoup de l’actualité, mais les thématiques autour de l’environnement nous semblent par exemple très intéressantes. Si vous me demandez à quoi ressemblera la Suisse en 2050 ou 2100, avec les évolutions climatiques que l’on connaît, je ne peux pas le filmer. Par contre, je peux passer du temps avec les scientifiques qui travaillent de manière approfondie sur ces sujets et qui ont une idée précise de ce à quoi pourrait ressembler la faune, la flore, la montée ses eaux, l’agriculture et l’urbanisme dans le futur.

Au regard de leurs travaux, on pourrait alors montrer quelles seraient les conséquences redoutées d’un réchauffement climatique sur un paysage précis. Mais on pourrait aussi partir dans l’infiniment petit. Si j’ai envie de vous montrer ce qui se passe dans vos artères quand vous mangez trop de viande rouge, avec les plaques de cholestérol que ça provoque, on peut partir avec un personnage 3D, zoomer jusqu’à passer par les pores de sa peau…

Quand j’étais petit, il y avait ce film… («Le voyage fantastique», ndlr) On voyait une sorte de vaisseau spatial entrer à l’intérieur d’un corps humain et y rester coincé… Aujourd’hui, on peut très bien reproduire ces effets: partir à l’intérieur d’une tumeur et expliquer comment une nouvelle technique pourrait permettre d’en guérir… Les applications sont infinies, vraiment!

Christophe Pinol

Sobriété avant tout du côté de la RTS

Sur la RTS, on est encore un peu frileux à l’idée de s’adonner à ce genre d’effets immersifs. Si le service des sports utilise bel et bien la réalité augmentée depuis quelques années dans ses magazines, il le fait à petites doses, à coup de panneaux informatifs en 3D ou des cartes d’identités virtuelles chargées de présenter les joueurs.

Sobriété avant tout. Par contre, il n’y a rien de prévu en ce sens au niveau de l’information ou des autres émissions de la chaîne. «Nous suivons néanmoins de près ce sujet, nous confirme Mathias Coinchon, chef de la technologie à la RTS, pour le jour où les besoins de programme seront avérés».

A suivre donc.

Votre opinion