Jacques Perconte
Presse / textes / retour .

231
  26 mars 2019  
Lê, Corentin, Critikat.
Technique et théorie : Rencontre avec jacques perconte
FULL document complet :: 26377 chars → 4731 mots
MAG :: MAGAZINE TA :: ENTRETIEN


→ L’article en ligne : /www.critikat.com/panorama...


À l’occasion de la sortie en DVD et Blu-ray de sept films de Jacques Perconte aux éditions Re:Voir et du dossier que nous lui consacrons, nous nous sommes entretenus avec le vidéaste dans ses bureaux de l’ENS-Louis Lumière, où il accompagne désormais les étudiants de troisième année. Consacrée à la technique de la compression et au travail théorique qui l’accompagne, voici la suite de notre entretien débuté ici avec l’évocation des films présents sur le DVD Corps et le Blu-ray Paysages.

  • Entretien réalisé à l'ENS Louis-Lumière le 5 février 2019.

TECHNIQUE ET THÉORIE

À l’occasion de la sortie en DVD et Blu-ray de sept films de Jacques Perconte aux éditions Re:Voir et du dossier que nous lui consacrons, nous nous sommes entretenus avec le vidéaste dans ses bureaux de l’ENS-Louis Lumière, où il accompagne désormais les étudiants de troisième année. Consacrée à la technique de la compression et au travail théorique qui l’accompagne, voici la suite de notre entretien débuté ici avec l’évocation des films présents sur le DVD Corps et le Blu-ray Paysages.

Technique

D’un point de vue technique, comment fonctionne la compression ?

Il y a plein de types de compressions différentes réparties en deux familles principales : la compression avec perte et la compression sans perte. La compression est liée à l’idée de l’économie. Celle de la place de stockage en premier lieu puis, dans une certaine mesure, l’économie des moyens techniques pour lire une image. Pour lire une vidéo non compressée en très haute résolution, il faut des disques durs extrêmement rapides et un ordinateur en forme. À défaut d’en avoir, il est possible de lire une vidéo en très haute définition grâce à la compression, qui va l’alléger et la rendre plus facile à lire. C’est le cas sur tous les systèmes de diffusion en streaming, parce que la plupart des gens n’ont pas des machines qui permettent de lire du 4K non compressé. Ces questions apparaissent dès le début de la question vidéo dans l’informatique, par exemple à partir de l’apparition des .mpeg, dont découle une multitude de formats.

Quelle est la différence entre une compression sans perte et une compression avec perte ?

J’utilise personnellement la compression sans perte, qui est une compression qui ne concerne pas la taille du contenu des images mais l’organisation des données dans celles-ci. L’économie concerne la façon dont sont stockées les informations et dont elles s’organisent. Dans la compression avec perte, les données sont altérées directement. Ce peut être, par exemple, un objet d’une certaine couleur qui ne bouge pas pendant un certain temps et qui ne va donc pas être reproduit à chaque image afin d’économiser de la place. La raison est, qu’a priori, l’image ne change pas. La connaissance de la quantité d’a priori contenus à l’intérieur des changements de l’image en mouvement réside dans des études statistiques et mathématiques qui permettent de mesurer ce qui serait possible de synthétiser dans le temps.

À l’image, qu’est-ce que cela donne concrètement ?

La méthode est pensée afin qu’il n’y ait pas de trace visible de la compression, comme si il y avait un « minimum qualitatif acceptable » pour la perception de ces images compressées. Aujourd’hui, tout le monde fait face à ces images pauvres, on baigne dedans. La plupart des images numériques que l’on voit, sauf au cinéma, sont de ce type-là. Cela crée des zones pâteuses et plus molles, des couleurs plus artificielles dans certains espaces ou des glissements de couleur, ce que l’on appelle du blocking[1]. Il y a donc un double enjeu dans la technologie des images : pendant que l’on avance sur les questions de compression, on avance également sur des questions de diffusion. Les secondes déterminent les premières, et les formes finissent par être altérées. La plupart des télévisions affinent par exemple les images, il existe une quantité d’options de réduction de bruit, d’intensification, d’égalisation, etc. Tout cela se résume à des mathématiques qui analysent l’image et qui essaient de comprendre ce qui est a priori superflu – mais toujours a priori – dans l’image que l’on souhaite regarder. Il n’y a pas d’intelligence sensible là dedans, seulement une intelligence statistique.

Votre travail s’est-il toujours situé à l’opposée de ce spectre ?

J’ai commencé à travailler sur la compression d’images fixes avant d’en faire sur des images vidéo. Dans les années 1990, lors d’un scan ou d’une photographie numérique, on trouvait du bruit et des artefacts visibles qui révélaient les structures mathématiques des images. La qualité des images numériques de l’époque avaient d’ailleurs un côté très décevant. En 1996, un appareil photo numérique produisait des photos d’une qualité bien moindre que celle d’un appareil photo argentique. Assez rapidement, j’ai eu envie d’aller chercher les spécificité de ces images altérées. Il m’a fallu pas mal de temps pour en dégager quelque chose et trouver ma voie.

L’évolution progressive de la technique y est aussi pour quelque chose.

Oui, j’étais lié au rythme de la technique mais j’aurais pu tout de même aller plus vite. Quand on est jeune, il y a de choses que l’on a sous la la main mais que l’on ne voit pas. C’est seulement à partir du début des années 2000 qu’il a été pour moi question de rendre visible la matière des images. La question du corps physique des images m’est venue vers 1997-98, mais la question de la matérialité ne s’est véritablement imposée qu’au début des années 2000.

Comment cette recherche de la matière numérique est-elle apparue ? Est-ce le mouvement à l’intérieur des images qui vous a mené vers cette piste ?

À la fin des années 1990, j’ai réalisé une série de pièces intitulée Corps numériques, dans laquelle l’idée était de voir comment des stigmates apparaissent (cf. images ci-dessus) à chaque fois qu’une image passe d’un média à un autre. Le processus pouvait être sans fin. Par exemple, prendre en photo un écran de télévision peut faire apparaître du moiré[2]. La numérisation de cette photo et sa diffusion par un autre canal peuvent ensuite en faire changer la couleur. De surcroît, si l’on on prend une photographie de cette même image sur un écran, il y a encore une nouvelle couche de stigmates qui surgit. Après cette première démarche, j’ai filmé au début des années 2000 une pièce de danse avec une petite caméra. C’est à ce moment que je me suis rendu compte du mouvement de formes plastiques à l’intérieur des images. C’est aussi à cette période que sont arrivés les réseaux câblés en France. J’étais alors très cinéphile et j’étais régulièrement témoin de ces bugs de coupure d’information qui font que certains éléments stagnent à l’écran. C’était également l’époque de l’avènement des réseaux peer to peer sur internet, avec l’apparition de codecs comme le divX, qui permettent d’écraser un maximum la taille de la vidéo pour la partager en ligne. Beaucoup de films étaient ainsi distribués dans des qualités extrêmement basses, avec une petite résolution et une très haute compression. En découvrant ce phénomène, j’y ai vu quelque chose de plastiquement très fort. J’ai cherché à savoir comment cela fonctionnait et j’ai préparé un projet pour un premier live audiovisuel. Pendant plusieurs mois, j’ai travaillé uniquement sur la compression d’objets modélisés en 3D, avec des cubes que je compressais dans tous les sens. Dès le début, il a été important pour moi d’être dans une démarche expérimentale.

Avez-vous un contrôle total sur les effets que vos images génèrent ?

Mon travail est très maîtrisé mais je ne suis pas dans une logique de production d’effets. Lors de mes compressions vidéo, c’est l’analyse des images dans leur ensemble qui conduit la vidéo à devenir une œuvre particulière, et non le désir de faire apparaître un effet spécifique. Je respecte ce principe de ne pas penser l’image par rapport à son contenu au moment où je travaille la compression. Il y a des œuvres pour lesquelles j’ai des désirs précis, mais je ne procède pas de cette manière. Je peux par exemple réaliser trois compression différentes : une plus « liquide », un autre plus « dure », puis une troisième dans laquelle les traînés de pixels vont être plus importantes. Je vais les assembler grâce au compositing puis je vais recompresser l’ensemble pour tout homogénéiser. C’est un peu comme faire de la cuisine sans recette prédéfinie ! C’est pour cela que lorsque Nicole Brenez m’a demandé de donner un nom à ces techniques, je me suis orienté vers la métaphore culinaire. J’ai par exemple choisi le terme de « composites déglacés » car l’enjeu est vraiment de faire prendre les éléments les uns avec les autres. Enfin, l’autre ingrédient primordial reste la temporalité : si la durée est variable, il me faut beaucoup de temps pour arriver au bout de mes films. Car plutôt que d’appliquer un effet que j’ai immédiatement en tête, je préfère me fier à mes intuitions techniques et les expérimenter dans leur intégralité en fonction des images à ma disposition. Une fois ces expériences entreprises, je fais au fur et à mesure des choix qui vont me conduire vers certaines pistes au détriment d’autres. Cela m’arrive ainsi souvent d’arriver à un endroit après plusieurs semaines de travail, puis de me dire que finalement ça ne me plaît pas, avant de tout effacer et recommencer.

Combien de temps passez-vous au montage ?

Cela dépend. Ça peut être parfois extrêmement long. Ces derniers temps, j’ai réalisé des pièces plutôt rapidement. C’est le cas de l’opéra Faust, qui dure un peu plus d’1h30, et que j’ai travaillé au total pendant pendant un an et demi. Un film comme Ettrick dure en comparaison un peu moins d’une heure alors qu’il m’a fallu trois ans pour le finaliser, ce qui est le temps à peu près normal pour une pièce parce qu’il est primordial que les choses reposent.

Pouvez-vous nous expliquer ce qu’est une pièce générative ? Vous en réalisez un nombre important en parallèle de vos films.

La différence entre les deux est simple : un film a un début et une fin alors que la pièce générative se construit au fur et à mesure et n’a pas de durée prédéfinie. La compression y est préparée avant d’être jouée. Tous les artefacts que l’on voit viennent ensuite de la décompression, au moment où l’image est diffusée. C’est la façon dont est construite à la base cette image qui entraîne des « défauts » de rendu. Un programme lit une image en boucle et travaille un montage calculé mathématiquement. Ce montage génératif conduit l’image à être lue de façon différente dans le temps et les images se contaminent : une couleur va perdurer jusqu’à ce qu’une autre prenne sa place, et ainsi de suite. Ce sont les modalités de lecture qui influencent la forme plastique des images.

Quels outils techniques utilisez-vous en plus de la compression ? Des calques, des masques, des superpositions, des ralentis ou des accélérations ?

Il y a beaucoup d’outils convoqués, mais certains reviennent plus souvent que d’autres. La vitesse du travail de l’image a une importance capitale dans ce que je fais. J’ai souvent besoin d’avoir des images très ralenties, même si je ne travaille pas systématiquement à cette vitesse. Bien plus que dans mes films, c’est dans mes pièces destinées à être exposées que le ralenti revient le plus fréquemment, pour une question de durée. Le ralenti est donc un élément important, mais je ne considère pas que c’est un effet de montage dans le sens où cela doit être fait dès le tournage. Ensuite vient la question du compositing, autre élément important qui tend à intervenir de moins en moins dans mes films. Le compositing joue un rôle fondamental dans Faust, alors qu’il est quasiment absent de Albâtre (images ci-dessus) ou d’un film comme Ettrick. Le compositing vient historiquement de mes films qui datent de 2006 à 2008, où la superposition d’une multitude de couches temporelles au sein d’une même image m’intéressait énormément. uishet en est l’exemple le plus éloquent. Il peut parfois y avoir une centaine de couches d’images, dont des couches isolées composées d’un seul petit bloc de couleur. Il existe une version de compression ou je n’ai gardé par exemple que le bleu. Après l’avoir isolé, je le replace dans sa temporalité initiale au sein d’autres éléments. L’image que l’on voit à l’arrivée est un composite constitué d’une masse importante de compressions différentes. C’est aussi quelque chose de très présent dans Après le feu. Je le fais moins en ce moment car j’ai un travail qui est bien plus influencé par la physicalité de l’image que par sa dimension composite. Mais cette tendance à la disparition du compositing a été un peu contrariée par Faust, dans lequel un univers onirique se déploie. Le fait d’être complètement plongé dans la fiction tirée de Berlioz m’a conduit à faire énormément cohabiter des choses étrangères, ce qui n’avait jamais été le cas jusque là dans mon travail. J’ai par exemple composé une séquence à partir d’une photo nocturne du ciel que j’ai animée puis associée à une séquence en forêt. Le mouvement des étoiles dans le ciel y a mis en mouvement le vert et le bleu des feuilles de la forêt (images ci-dessous).

Ce compositing fictionnel est assez déroutant dans votre travail.

Oui, c’est le genre de chose que je ne pratique quasiment jamais ! Mon prochain film, qui sera peut être un long-métrage, va sans doute participer à cette transition. Pourquoi pas partir du documentaire pour se diriger ensuite vers l’abstraction et parvenir à des phénomènes purement oniriques… En ce moment, je travaille d’ailleurs sur un court film d’animation. Je vais travailler le film image par image et ensuite les animer les unes avec les autres. La compression numérique sera cristallisée dans chaque frame. Mon objectif est de partir d’une image fixe dont l’apparence a déjà été modifiée par une compression, puis ensuite de produire une quantité d’images de ce type avant de les assembler. Ce sera intéressant de voir ce que ça produira en terme de vibrations dans le temps, une fois que ces images seront associées.

Théorie

Vous accompagnez souvent vos films de courts textes. Procédez-vous toujours à un travail théorique en parallèle de vos images ?

Oui, mais plutôt à l’oral. Les entretiens m’aident notamment beaucoup. C’est devenu très important à partir de 2010, depuis que plusieurs chercheurs gravitent désormais autour de mon travail. Je peux entretenir des relations fortes avec eux et ils ont toujours une influence importante. Celle de Bidhan Jacobs est non négligeable, il a mis en lumière des pièces qui étaient en retrait dans ma filmographie. Guillaume Massart, qui a été mon producteur pendant longtemps, m’a aussi conduit à investiguer la partie documentaire de mon travail. Cette recherche théorique se fait énormément dans ces interactions, à travers des conversations que j’ai depuis des années. J’ai récemment participé, sous la direction d’Antonio Somaini, à un ouvrage sur la haute définition qui va être publié à la fin de l’année. Mais aujourd’hui j’écris moins car je fabrique énormément d’images. C’est vraiment lors des entretiens que certaines choses se débloquent, même si j’aimerais écrire un peu plus.

Vous n’êtes pas influencé par des artistes ou des réalisateurs en particulier ?

Très peu. Dans le champ des arts visuels il y a Joost Rekveld, qui sort un coffret aux éditions Re:Voir en même temps que moi. C’est lui qui m’intéresse le plus. Sinon il y a quelques cinéastes avec qui je suis en relation, comme Patrick Bokanowski. Depuis que je suis à l’école Louis-Lumière, j’ai rencontré aussi des chef opérateurs passionnants.

Vous travaillez dans ce champ depuis un moment, quel regard portez-vous sur l’utilisation de la compression numérique au cinéma et dans la culture audiovisuelle ces dernières années ?

Je suis toujours épaté que personne ne le fasse à un haut niveau et surpris de rester un peu seul dans la maîtrise technique de ces outils. C’est bien pour moi, mais il en faudrait plus. Certaines personnes pensent que je possède des grands secrets sur la compression, alors que je me cantonne tout simplement à en faire, tout le temps ! Je suis après probablement un peu monomaniaque…

C’est aussi une question de constance. Takeshi Murata (Monster MoviePink Dot) s’en est par exemple assez vite détourné.

Il n’a peut être pas trouvé grand chose dedans. De mon côté je commence seulement à développer une pleine maîtrise technique du sujet, même si je continue de chercher ! Je trouve par ailleurs que beaucoup d’usages de la compression dans le champ audiovisuel sont encore trop simplistes, trop premier degré. J’ai vu peu de choses intéressantes dans ce domaine qui puissent donner une place véritablement importante à la compression vidéo. La raison pour laquelle j’y arrive, c’est que je ne fais rien d’autre et que la compression n’est, dans mes films, jamais au service d’autre chose : elle est le cœur de mon travail. Je n’arriverais pas à le faire ça si ce n’était pas la finalité. Mon rapport aux images est esthétique et il passe par un rapport physique à l’expérience. C’est ce que je vais chercher quoiqu’il arrive. Après, je suis toujours curieux de voir ce qui se fait ailleurs.

Comment expliquer la démocratisation de la compression vidéo ces dernières années ?

Je pense que cela s’est démocratisé car il est très facile de le faire de manière superficielle. Je reçois souvent des films d’un extrême mauvais goût, faits à la va-vite, sans véritable désir. Et puis créer une bonne compression reste très chronophage ! Cela demande beaucoup de temps et de patience. Il faut rester chez soi et bosser. Je travaille personnellement sur la question tous les jours. Les films les plus rapides que j’ai réalisés sont les deux films Or / Our. L’un des deux, Budapest, dure trois minutes (cf. images ci-dessous) et m’a pris quatre jours entiers. C’est à peu près toujours le même ratio entre le temps de travail et le durée finale des films.

Comment vous situez-vous par rapport à la culture du glitch, avec ses manifestes et ses figures comme Rosa Menkman ?

C’est quelque chose qui n’a rien à voir avec ce que je fais. Rosa Menkman est dans le détournement des outils au service d’une lutte politique. On se connaît, on ne discute pas fréquemment mais j’ai pu la rencontrer à plusieurs reprises. Nous avons deux positions fondamentalement opposées : là où elle pense travailler la question de la libération des outils, je considère que cet affranchissement doit passer par la libération de l’outil de son statut. Quand on procède volontairement à des erreurs techniques qui sont par la suite revendiquées comme des erreurs, à aucun moment le statut initial des outils n’est changé. Cela me semble personnellement nécessaire de créer une esthétique, du Beau, à partir d’un dysfonctionnement. Cela me permet d’ailleurs justement de ne plus considérer la compression comme un dysfonctionnement, terme qui devient dès lors contradictoire. Je n’en fais pas un dispositif industriel. Si l’on crée du dysfonctionnement pour générer une esthétique au service de l’industrie, c’est également contre-productif. Il existe même aujourd’hui des logiciels qui permettent de générer automatiquement du glitch. Ils ne travaillent pas du tout le fichier, seulement la surface visuelle des images. Dans mes films, il n’y a techniquement aucun effet sur l’image en tant que telle, c’est uniquement la façon dont elles sont lues et rendues qui font naître l’esthétique.

Comment avez-vous pris connaissance de la présence d’Après le feu dans Le Livre d’image de Jean-Luc Godard ?

C’est passé par Nicole Brenez, qui s’occupait des archives pour Le Livre d’image. Elle devait trouver des extraits de films et elle a pensé à Après le feu. J’ai ensuite été mis en relation avec Jean-Paul Battaggia (directeur artistique du film, ndlr) et cela s’est fait naturellement. J’étais très content d’être cité. J’aime beaucoup le film, c’est très fort ce que Godard arrive à faire ! Par ailleurs, Fabrice Aragno (producteur du film, ndlr) m’a révélé qu’il avait saturé la couleur des images d’Après le feu. Je ne m’en étais même pas rendu compte lorsque j’ai découvert le film.

Vos compressions étaient déjà apparues dans un autre long métrage, Holy motors de Leos Carax. Comment s’est déroulée cette collaboration ?

C’était très différent du Livre d’image. Pour Holy Motors, Leos Carax cherchait vraiment quelqu’un qui travaillait la matière numérique des images. C’est Eugénie Deplus (directrice de la post-production du film, ndlr) qui lui a parlé de mon travail, au moment où j’ai eu ma première carte blanche à la Cinémathèque en 2011. J’ai ensuite rencontré Leos Carax et l’idée de participer au film s’est mise en place. Carax voulait faire une scène onirique avec Denis Lavant qui se déplace sur un fond vert. Mais cela impliquait d’incruster du noir sur un fond vert, car le vert aurait contaminé toute la compression. Je n’ai pas trouvé ça convaincant car ça procédait à un aller-retour entre les images très cinématographiques du reste du film, et une parenthèse isolée où sa présence plastique était trop forte (cf. image ci-dessous à gauche). Et puis ça ne plaisait pas non plus à Leos. Pendant que je travaillais sur cette scène, l’équipe de tournage était au Père Lachaise. Leos m’a alors montré plusieurs travellings tournés par Caroline Champetier (directrice de la photographie du film, ndlr) dans les allées du cimetière, au lever du soleil. J’ai vu les images et ça m’a tout de suite plu. J’ai commencé à travailler dessus pour Holy Motors et en parallèle pour un film qui deviendra L. Leos Carax a été lui aussi séduit et a décidé d’utiliser ces images dans le film, même si ça a été raccourci au montage. C’est de là qu’est né (cf. image ci-dessous à droite).

Est-ce que vous pensez que la pédagogie au sujet du numérique manque aujourd’hui ?

Oui énormément. Il y a un retard colossal. Non pas sur la technique en elle-même mais sur le rapport que l’on entretient avec elle. Il y a toujours de la méfiance, des fausses idées, des paradoxes. Le numérique a beau être très libre et souple, on lui impose une méthodologie et des chemins très stricts. C’est là que ça bloque. Heureusement, depuis que je suis à l’ENS, je croise des étudiants brillants et je me dis que, peut-être, la nouvelle génération est moins méfiante vis-à-vis de cela. Les étudiants comprennent qu’il faut bricoler, sortir des carcans méthodologiques et idéologiques. Je pense que les choses vont bouger. Ceci dit, même s’il y a un enseignement qui pose la question de la philosophie de la technique, il y a un écart important avec la relation pratique que l’on a avec elle, notamment en ce qui concerne la nécessité fondamentale de l’expérience. Il y a quelque chose que tout le monde oublie, c’est que le support argentique a toujours été appris à travers l’expérimentation. Il faut découper, coller, développer avec des produits, utiliser des outils manuels, etc. En ce qui concerne le numérique, cette expérimentation se limite à la partie optique. On bricole très peu, on ne sort pas des sentiers battus pour voir ce que cela pourrait donner. Avec Pascal Lagriffoul, le chef opérateur qui dirige la section cinéma de l’ENS et qui se questionne beaucoup sur le numérique, on va essayer de mettre en œuvre un retour à l’expérimentation dans le champ du numérique.

Comment cette pédagogie s’articule-t-elle depuis que vous êtes à l’ENS ?

Je n’enseigne pas, j’accompagne seulement les étudiants en troisième année sur la partie pratique de leur travail, sans leur fournir d’outils théoriques. Je pense que les enjeux se situent aujourd’hui dans la pratique. Dans mon travail, mon rapport à la pensée et à la théorie viennent au départ de la pratique elle-même. J’ai eu la chance d’être autodidacte et de commencer à travailler sur le support avant que les interfaces graphiques finissent par paraître stables et cloisonnées. Personne ne m’a rien appris donc ça m’a permis de me débrouiller. La programmation informatique n’est en réalité pas quelque chose de forcément compliquée : il ne s’agit pas de rentrer dans la complexité mathématique inaccessible du code. L’essentiel est d’apprendre à la manipuler afin de produire quelque chose de nouveau, quitte à ce que ce ne soit pas une révolution en soi, mais au moins une expérimentation. En conclusion, la compression vidéo à l’œuvre dans mon travail me semble être une avancée infime dans la question de la technique des images en mouvement. J’ai trouvé cette petite avancée, à l’origine d’une esthétique, mais cela ne peut pas se cantonner à ça ! Comment est-il possible, avec la facilité d’accès aux moyens de production et les outils à notre disposition, qu’il n’y ait pas plus d’intelligence dans l’expérimentation pour produire de nouvelles formes esthétiques spécifiquement liées au numérique ? Pourquoi toutes les failles ne sont-elles pas investies pour produire des images nouvelles ? C’est un problème culturel, on manque de lâcher prise !

La première partie de cet entretien, consacrée aux films présents sur le DVD Corps et le Blu-ray Paysages, est disponible ici.

Notes

1. Apparition de blocs uniformes de couleurs dans l’image.
2. Le moiré définit les trames horizontales ou verticales pouvant apparaître lorsqu’une télévision est filmée. Les trames diffusées sur l’écran de télévision se superposent à celles de la caméra et apparaissent à l’image sous la formes de bandes noires en mouvement.

à venir : pièces liées / périmètres articles / auteurs / médias / registres / ...
❤︎ / jacques perconte