Jacques Perconte
Presse / textes / retour .

  10 novembre 2015   document complet :: 40888 chars → 6940 mots
132 REV :: REVUE RE :: RECHERCHE
Jacobs, Bidhan, Vertigo.
Traitement du signal et abstraction

Il ne s’agit pas ici de produire des analyses poussées sur le traitement du signal numérique ou sur l’abstraction dans les arts filmiques, mais d’éclairer le point de friction où une grande discipline d’ingénierie d’une part, et une catégorie esthétique, d’autre part, se rencontrent. Nos considérations viennent de la constatation que des recherches les plus radicales sur l’image et le son numériques depuis 1990, favorisées par l’accélération exponentielle des performances des technologies (réseaux, multitudes d’outils de simulation, de détection, de calcul et de traitement des images et du son en temps réel, programmes, algorithmes, programmation, terminaux), se démarquent des plasticiens qui exploitent le numérique dans ses spécificités techniques. Notre approche est par conséquent décloisonnante et transversale : elle s’appuie autant sur des artistes dont les œuvres relèvent du film, de l’installation que de la performance, tels les Français Pierre-Yves Cruaud et Jacques Perconte et le Norvégien HC Gilje. Pierre-Yves Cruaud offre une bonne introduction à la notion de signal numérique et aux inventions formelles vertigineuses liées à son traitement. Les virtuosités techniques de Jacques Perconte en matière d’encodage et de HC Gilje en matière de programmation visuelle sont l’occasion de montrer qu’il est possible de faire subir à ce signal une multiplicité de manipulations, qui permettent de tracer deux voies majeures dans les pratiques et les formes artistiques actuelles. 

Le regard discriminant que nous portons sur le signal numérique réactive bien sûr les réflexions sur le signal vidéo menées par les analystes et critiques tels que Raymond Bellour, Philippe Dubois, Anne-Marie Duguet ou Jean-Paul Fargier. Bill Viola a parfaitement formulé l’involution de l’image vers le signal : 

« Cela m’a fait sentir que le signal électronique était un matériau avec lequel on pouvait travailler. Ce fut là encore une découverte importante pour moi. Cela a suppléé aux insuffisances dont j’avais preuve dans les cours d’arts plastiques, et m’a appris comment aborder ces fréquences électroniques intangibles. La manipulation est fondamentale dans nos processus de pensée (voyez comment le bébé apprend). C’est pourquoi la plupart des gens ont tant de mal à aborder les médias électroniques. C’est quand les énergies électroniques sont devenues pour moi aussi concrètes que les sons pour un compositeur que j’ai vraiment commencé à apprendre, et que le processus m’est apparu aussi simple et essentiel que de la sculpture. C’est ainsi que, peu de temps après, mon passage à la vidéo a été très facile, je n’y ai jamais pensé en termes d’image, mais plutôt en termes de processus électronique, de signal. » 1

Ces réflexions sur la vidéo constituent un rappel à destination de tout analyste, lequel se doit de comprendre la spécificité du support et revenir à sa matérialité si souvent négligée en raison des modes d’apparition de l’image électronique (l’écran du téléviseur), de transport (les ondes), de manipulation (régie puis ordinateur) qui semble la repousser dans l’immatériel. Soulever cette matérialité signifie également prendre en compte la complexité des technologies électroniques qui font intervenir autant la physique que les mathématiques.

Quelques éléments-clés peuvent déjà être éclaircis sans nécessairement entrer dans les arcanes des hautes technologies. Nous pouvons, par exemple, mettre en évidence la distinction physique entre vidéo et cinéma. En effet, le cinéma est héritier de la technique physico-chimique qui permet d’enregistrer directement ou indirectement toute radiation lumineuse pour former un signal chimique visualisable, après traitements, grâce à la lumière de la projection. La vidéo permet, elle, d’obtenir des signaux électriques, de les enregistrer sous forme magnétique et de les reconstruire avec des traitements électroniques déclinant un ensemble de méthodes mathématiques développées depuis les théories de l’information de la Seconde guerre mondiale (Claude Shannon, Warren Weaver, Norbert Wiener, John Von Neumann, etc.) avant de les visualiser sur des terminaux. Les recherches scientifiques et techniques ont, tout au long du XXe siècle, inventé et perfectionné les technologies visant à obtenir le signal vidéo par des procédés qui permettent de traduire les intensités lumineuses des éléments de l’image en termes d’impulsions électriques, puis de les traiter aux moyens de circuits analogiques (jusqu’à la fin des années 1980) et numériques (à partir du début des années 1990). Les recherches artistiques sur la vidéo ont suivi cette évolution technologique. Rappelons que, pour se développer, l’art vidéo a dû tout d’abord compter sur les structures de télévision existantes. Comme le fait remarquer Anne-Marie Duguet « les exigences esthétiques des artistes, concernant par exemple la qualité de l’image ou la recherche fondamentale sur le dispositif électronique lui-même, les obligent à se tourner vers les institutions qui possèdent des studios correctement équipés » 2. L’essor du numérique depuis le début des années 1990 a entraîné une démultiplication d’outils grand public qui ont permis à l’artiste de travailler en situation d’autonomie, avec un équipement de pointe.

Il faut ceci dit mentionner deux préalables pour initier une réflexion sur le signal au temps du numérique. Tout d’abord, le traitement du signal vise à sa codification : le signal répond en effet à des normes de qualité et de quantité et satisfait des besoins répondant aux standards de l’industrie. Par ailleurs, l’accès du signal est en « mode protégé » 3 : le traitement du signal au XXIe siècle recouvre l’ensemble des méthodes et des algorithmes qui permet d’élaborer et d’interpréter les signaux porteurs d’information, formant une grande discipline d’ingénierie toujours plus indispensable dans l’amélioration des performances des systèmes, en particulier ces dernières années au sein des technologies audiovisuelles. Il reste que les outils numériques professionnels et grand public sont construits comme des boîtes noires — des systèmes fermés dont le fonctionnement sophistiqué interne est tenu secret —, au cœur desquelles le traitement du signal est soigneusement rendu opaque et inaccessible. L’enjeu devient dès lors pour les artistes de remonter au cœur des machines et d’enrichir un arsenal technique afin de s’emparer du signal et de ses plasticités.

Les recherches les plus avancées sur le signal numérique s’inscrivent donc directement dans une longue pratique d’expérimentations de la vidéo depuis les années 1960, démontrant une compréhension de la spécificité technique et des propriétés du support, et dont le but est l’invention permanente de formes plastiques radicales. Mais, simultanément, ces recherches sur le signal poursuivent et amplifient les expérimentations artistiques qui ont eu lieu tout au long du XXe siècle, de l’abstraction picturale aux arts numériques en passant par le cinéma expérimental — en particulier structuraliste.

En septembre 2000, Pierre-Yves Cruaud réalise L’hôtel des vies reproductibles en mini-DV, pamphlet visuel de début de siècle le plus lucide sur le travail accompli à travers la codification du signal. 

Une mosaïque abstraite et vibrante laisse place à l’élucidation progressive de sa composition, autrement dit, le sujet du film représente le processus inverse de son élaboration. En effet, Cruaud a effectué, sous Final Cut Pro, une très longue série de réductions de plusieurs plans, associée à leur duplication multiple dans le cadre, entraînant la miniaturisation extrême de chaque copie à la taille d’un minuscule bloc de pixels. L’artiste opère, par cette manipulation vertigineuse du signal numérique, un enchâssement d’analogies entre deux étapes du traitement du signal : la mosaïque se confond avec l’affichage matriciel de l’écran numérique ; l’affichage matriciel connote le réseau de cellules du capteur CCD de la caméra qui a transduit le signal en vue de sa codification.

Le capteur CCD mérite ici d’être décrit et son principe de fonctionnement expliqué. En 1970, Willard Boyle et Georges Smith de Bell Labs font aboutir dix années de recherches en intégrant sur une même puce les surfaces de conversion lumières-électricité et les dispositifs à transfert de charge : Coupled Charge Device, CCD4. Dans les années 1980, les caméscopes sont équipés de ces analyseurs à état solide, capteurs micro-électroniques de lumière comprenant de deux cents à trois cents mille pixels. Ces nouvelles caméras intègrent tout d’abord des circuits de traitement analogiques avant de passer au tout numérique au début des années 1990. Le micro-circuit est construit sur une pastille carrée de silicium semi-conducteur de six millimères de côté environ et constitue, dans sa partie centrale et sensible, un réseau de plusieurs centaines de milliers d’éléments, réseau qui détermine la définition et la limite de résolution de l’image. Autrement dit, les photosites de la puce CCD forment un réseau matriciel dont chaque rangée correspond à une ligne de l’image. Le fonctionnement d’un CCD peut se résumer en trois étapes : tout d’abord, la conversion de l’image optique formée par l’objectif en charges électriques proportionnelles à l’énergie lumineuse reçue (quantité de photons), phénomène appelé transduction ; ensuite, l’accumulation des paquets de charges ainsi générés dans les photosites ; enfin, transfert de ces charges — selon le mode propre à la structure du capteur, —  vers la porte de sortie du circuit pour former un signal électrique qui, traité au sein de la caméra, produit un signal numérique. La supériorité technique du signal numérique sur l’analogique réside dans le fait que son traitement par la caméra, son transport et sa reproduction ne sont pas sujets à l’instabilité des composants et aux variations de l’environnement. En effet, le signal analogique véhicule lui-même les valeurs directes de l’image qui a été captée, dans la forme même du signal ; si le traitement du signal analogique rencontre du bruit (au sein de la caméra, les composants étaient sujets à des dérives ou fluctuations – vibrations, température, vieillissement), ce dernier devient partie intégrante du signal électrique. De plus, en cas de copie, il est sujet à des pertes d’informations. Le signal numérique, lui, se caractérise par le fait qu’il véhicule non plus directement les valeurs du signal d’origine mais des valeurs hautes et basses (codage binaire) qui correspondent au langage informatique de l’ordinateur, et doivent être décodées pour être lisibles par un être humain. Quant à la copie d’un signal numérique, elle est identique à l’original.

Le processus de transduction de l’image optique que les constructeurs de caméras numériques ont mis au point pour obtenir du signal numérique est hyperstandardisé : il se retrouve dans toutes les caméras numériques sur le marché. La formation de l’image optique est elle-même obtenue par un instrument — l’objectif — dont la standardisation fut et est encore aujourd’hui dénoncée par nombre de cinéastes (d’Abel Gance à Patrick Bokanowski). À cela s’ajoute la présence de filtres, placés devant le capteur, notamment un filtre anti-infrarouge qui a pour but d’atténuer la réponse du CCD dans l’infrarouge, afin de la rendre cohérente avec notre propre perception visuelle. De même, le codage des informations visuelles se fait au détriment de la chrominance, sous prétexte que l’œil humain possède un pouvoir de résolution beaucoup plus faible pour les détails de couleurs que pour les détails de luminosité (certains codages réduisent jusqu’à 75 % la quantité d’information de chrominance par rapport aux informations de luminance). Enfin, le traitement que fait subir le circuit électronique de la caméra aux signaux électriques issus des capteurs CCD consiste en une batterie de codifications du signal numérique en onze étapes successives afin d’obtenir une image lisible, propre et acceptable (échantillonnage, corrections de taches au noir, gain, correction de taches au blanc, correction d’ouverture et de contour, correction de masking, correction des pixels défectueux, correction de flare, compressions des blancs, correction de gamma, modulation et multiplexage).

Le signal numérique est donc de l’information bridée par l’industrie : il n’est qu’un produit porteur d’objectifs de rentabilité et de profits. En atteste la volonté affichée par les constructeurs dans les années 2000 et 2010 de faire de la caméra numérique le nouveau terrain du cinéma ; ainsi devait être comprise la course imposée par les constructeurs à la haute définition censée rejoindre progressivement celles de l’image argentique, l’intention étant d’inventer des caméras numériques semblables aux caméras argentiques, seulement plus performantes et confortables d’utilisation. L’objectif réel des industries techniques répondait à la stratégie globale de remplacement intégral du parc analogique par le numérique. Les artistes qui ont bien compris la logique de ces enjeux peuvent s’en émanciper et explorer le numérique pour ce qu’il est. Ce faisant, ils le libèrent. Concevoir les images mouvantes en tant que signal numérique, c’est reléguer la caméra au rang d’une machine à fabriquer des données à partir du visible et de l’audible. Cela revient à annihiler l’importance de l’usage de l’outil au profit du processus technique à l’œuvre en son sein. Autrement dit, métaphoriquement parlant, à « ouvrir » la caméra pour n’en retenir que les circuits électroniques internes. 

Pierre-Yves Cruaud propose ainsi une manipulation vertigineuse du signal numérique qui aboutit à démultiplier un plan à l’intérieur du cadre jusqu’à l’infiniment petit par fractionnement et multiplication du signal d’origine. Cette manière de concevoir le numérique peut-être comparée à celle que les peintres abstraits avaient du tableau comme étant « une surface plane recouverte de couleurs assemblées en un certain ordre », ou aux interprétations des futuristes Bruno Corra et Arnaldo Ginna dans les années 1910 selon lesquelles le film consistait en un ruban d’un matériau transparent défilant dans le projecteur. Le regard discriminant porté sur l’objet technique, cet attachement à la matière du support, à la réalité de ses composants et de ses infrastructures impulse une invention formelle débridée permettant une expression à la fois plus sensible et plus intellectuelle. Le spectateur comprend ainsi que ce qu’il assimilait au début de l’Hôtel des vies reproductibles à une riche mosaïque se révèle un système de vidéo surveillance fictionnel à l’intérieur de chambres d’hôtel, dupliqué à l’infini. Représenté par deux personnages, le corps social est appréhendé à l’intérieur d’un dispositif qui révèle la standardisation de nos modes de vie, d’un point de vue rigoureusement panoptique. Pressurisés par les cadres indéfiniment démultipliés, les personnages se mettent à exister comme des pantins aux mouvements saccadés, répétitifs, inconséquents. La bande-son rend également compte de l’idée de reproductibilité, par l’utilisation de sons de scanners, de photocopieurs et de fax. Cruaud manipule et exploite les mécanismes de l’industrie de la surveillance afin d’en révéler les principes. Il rapporte la codification du signal au processus extensif de réduction et d’uniformisation générale des êtres humains à des données, mais aussi de conformation irréversible des comportements à ce processus. Ainsi, la fonction exercée par la caméra semble-t-elle trop bien accueillie par les personnages : une main devant l’objectif de la caméra, en conclusion du film, ne fait que délicatement repousser le travail de surveillance comme si ce système ubiquitaire et intrusif devenait anodin et familier. L’hôtel des vies reproductibles met en évidence, d’une part, la façon dont le contrôle continu propre aux sociétés contemporaines affecte tous les aspects de l’existence et façonne insidieusement celle-ci ; et d’autre part, le rôle majeur qu’occupe dans l’exercice de ce contrôle le traitement même du signal.

Jacques Perconte offre une alternative à la lucidité et au pessimisme critiques de Cruaud, par la technique de révélation du signal. Perconte a développé depuis 2001 un ensemble de techniques de détournement et dépassement des algorithmes d’encodage afin de travailler avec les constituants même des signaux numériques de sa caméra, de son appareil photo ou de films téléchargés sur internet. Apportons, tout d’abord, quelques informations sur la compression. S’imposant chaque jour d’avantage, cette technique complexe a banalisé la manipulation des signaux numériques dans les domaines broadcast et grand public. Elle consiste à réduire la quantité d’information du signal et son débit. Depuis les débuts de l’histoire de la télévision, on a cherché à restreindre à des valeurs raisonnables l’encombrement du signal vidéo (réduction du nombre d’images transmises par seconde, réduction de la définition verticale et horizontale, etc.). Apparue dans les années 1980, la numérisation des images vidéo conformément à la norme 4 : 2 : 2 engendre des volumes de données gigantesques, donc des débits extrêmement élevés au regard des faibles capacités des supports de stockage et de transmission de l’époque. La compression a eu pour but de trouver la manière la plus rationnelle de coder les images tout en préservant au maximum leur contenu. Elle supprime certaines informations de l’image et en simplifie d’autres, en considérant que les modifications apportées échappent à la perception humaine. Dans le cas d’une image fixe, les techniques de compression s’appuient sur une analyse du contenu de l’image et tirent profit de son organisation interne afin d’en éliminer les redondances spatiales. Par exemple, une image comporte souvent des plages uniformes plus ou moins grandes, composées de pixels presque identiques que l’on peut coder de manière compacte en attribuant une même valeur moyenne. Dans une séquence animée, la compression peut, par ailleurs, exploiter le fait qu’il existe très souvent une grande similitude entre plusieurs images successives ; ces redondances temporelles permettent de ne transmettre que les différences entre des images-clés sous la forme de coefficients et de vecteurs de mouvements et de couleurs. Le plus souvent, la vitesse des mouvements est largement inférieure à la fréquence de rafraîchissement des images (là aussi une économie de données peut-être réalisée). Concrètement, la compression fait appel à une variété d’algorithmes d’encodage qui réorganisent ou éliminent ce que l’industrie conçoit comme des données superflues. Le travail de Perconte se situe au rebours des conceptions de l’industrie selon cinq axes. 

– Les architectures des algorithmes sont conçues pour éliminer les données mais respecter l’information. Perconte ne s’intéresse qu’aux données.

– Rien n’est redondant ni superflu pour lui dans le signal ni dans les algorithmes. Perconte ne réfléchit pas en termes de déperdition, dégradations, défauts. Il sait que le signal codifié est un modèle arbitraire insatisfaisant, mais qu’il recèle des ressources. Il sait que les algorithmes, aussi sophistiqués soient-ils, sont des outils pauvres d’un point de vue conceptuel, mais qu’ils peuvent devenir des outils d’investigation d’une puissance prodigieuse.

– Il choisit des algorithmes qu’il fait fonctionner à l’aide de logiciels (QuickTime, After Effect, Squid), le plus souvent en surrégime, dès qu’il passe dans la phase active de son investigation, puisqu’il intime des taux de réduction du débit très élevés de manière à ce qu’apparaissent des artefacts, des distorsions et couleurs dans l’image. Il cherche le point de rupture pour rendre le fichier illisible par le logiciel d’encodage ; à ce moment-là, il change d’algorithme afin de poursuivre les compressions. 

– Il choisit des logiciels de préférence munis d’une interface graphique lui permettant de paramétrer, sous forme de lignes de commande, certaines fonctions de l’algorithme (l’enlèvement de certaines images-clés, formats, taille des blocs, etc.)

– Enfin, il associe des chaînes de compression, mené par l’intuition plutôt que par le calcul. S’il a développé une forme de prescience depuis qu’il explore la compression, il reste surpris et découvre sans cesse. 

Ainsi « cherche [— t-il] à donner aux spectateurs une place dans cet avenir du cinéma en numérique où la matière renaît et change, où les codes changent.
 C’est dans cette perspective que depuis plus de dix ans [il] pousse les images numériques dans leurs retranchements mathématiques ». La technique de révélation consiste, en effet, à faire surgir ce que les mathématiques industrielles appliquées au traitement du signal n’ont pas prévu et sont incapables tant de prévoir que de prévenir. Árvore da Vida (2013) est l’une des pièces maîtresses du cycle de Jacques Perconte sur l’île de Madère. C’est l’histoire d’un arbre à l’orée de la forêt primaire du parc naturel de Madère, vestige de la plus vaste forêt de lauriers autrefois répandue il y a quinze à quarante millions d’années. L’investigation plastique des algorithmes par agencement de fonctions nouvelles lui permet de révéler des propriétés insoupçonnées du signal original et de créer des structures de nuages de pixels.

Perconte a ainsi filmé en plan-séquence et en très longue focale, à une distance de deux cents mètres, cet arbre en réalité tout petit, mais qui, pris dans une masse végétale très dense et sans profondeur, produisait une image saturée de vert. Il a réduit le diaphragme pour obtenir un maximum de netteté et de détails à l’arrière plan. Avec le vent, l’ensemble bougeait légèrement, l’arbre, bien sûr, mais également le fond, composant ainsi un plan plastiquement très riche. Puis il a fait varier la vitesse du plan en introduisant un ralenti progressif avant de revenir à la vitesse normale, puis un nouveau ralenti jusqu’à ce que plus rien ne bouge. La structure temporelle du film provient de ce mouvement de ralenti et d’accélération.

Il a ensuite décliné huit versions de ce plan en GIF, ce qui signifie qu’il a extrait toutes les images du film en images fixes dans un dossier, ce qui représente, à raison de neuf minutes à une vitesse de vingt-cinq images par seconde, treize mille cinq cents images. Ensuite, il a transformé les images fixes en GIF pour le web, à l’aide du GIF 89a, en bichromes, trichromes ou quadrichromes. Le fichier est alors réduit à une formation de points. Les images sont normalement synthétisées par le GIF en valeurs de 256 couleurs, mais Perconte a travaillé sur des échelles nettement plus petites de 2, 4, 8, et 16 couleurs maximum. C’est un travail d’organisation des points en nuages et structures avec du bruit, en camaïeux de verts à partir d’une sélection de teintes vertes de l’image originale. Puis tous ces fichiers ont été retravaillés selon diverses méthodes de compression : compression temporelle, compressions de différents types dérivées des Mpeg4, opérés selon une chaîne de compressions successives avec paramétrages via des interface graphiques, et impliquant notamment des réductions variées de débit dans des taux très élevés. Les bleus, les jaunes, les rouges, les roses sont révélés par l’intensification des compressions. Ces pixels sont très localisés, et ce, d’autant plus qu’il s’agit d’un plan fixe. Perconte les a suivi, amplifié et poussé. Enfin, il a élaboré un grand compositing à partir d’After Effect en utilisant des calques de sélection de certains pixels de couleurs, des ombres, de hautes lumières et a superposé l’ensemble en jouant sur les transparences (une vingtaine de couches) — l’idée étant d’obtenir des structures extrêmement délicates avec de lents mouvements de points ultra lisibles. 

Árvore da Vida travaille l’impression du réveil et de l’excitation de la matière de laquelle un arbre semble naître. Perconte y traite le motif de l’arbre non selon sa forme apparente mais en aplats denses de micro-touches discontinues et vibrantes aux infimes nuances de teintes et de tons, à travers lesquelles l’arbre semble se disséminer dans le plan. Le motif de l’arbre de vie, principe de fécondité et de fertilité, est injecté dans les technologies filmiques numériques : ce signal normé et pauvre contient dans ses données un potentiel de fertilité plastique infinie que Perconte révèle par le détournement et l’intensification des spécifications techniques des algorithmes. Un tel travail plastique sur le point nécessite des normes de résolution élevée en termes de décompression avec de hauts débits et les derniers supports de visualisation, écrans et projecteurs.

Perconte déclare que « ce qu’[il] donne à voir ce sont ces tensions qu’il y a entre le monde tel qu’on le connaît/représente et ses images telles qu’elles sont physiquement, après les manipulations technologiques… ». En effet, la recherche qu’il conduit sur la révélation du signal codifié par des algorithmes normés n’a pour lui d’autre perspective que d’offrir des images coïncidant enfin avec le réel.

HC Gilje, qui s’est imposé comme l’un des artistes les plus inventifs des années 2000, ouvre une autre voie. Gilje considère les images vidéo ou numériques brutes comme peu satisfaisantes, parce que chargées de trop de détails et convoquant un rapport codifié à la réalité. Aussi ne sont-elles pour lui qu’un matériau de données à partir duquel il crée des agencements nouveaux. De même, le VJing tel qu’il était pratiqué au début des années 2000 n’exploitait pas selon lui toutes les possibilités de l’improvisation live et se trouvait réduit, en raison du contexte dans lequel il était tenu d’exister (les concerts, les boîtes de nuit) à créer une ambiance audiovisuelle et non une œuvre en soi, sur laquelle les spectateurs pourraient focaliser leur attention. Aussi ses références se situent-elles du côté des avant-gardes allemandes des années 1920 et du cinéma expérimental américain des années 1960, de la peinture abstraite ou encore de la musique. Par ailleurs, la compréhension intime qu’a Gilje du numérique, de sa nature, de sa texture et de sa structure, le conduit à traiter les images pour ce qu’elle sont : un flux de données, créé par les capteurs CCD de sa caméra numérique, sur lequel, au moyen d’outils appropriés, il peut intervenir comme il le désire. Sa volonté de créer des œuvres dans l’instant, de manière riche et intuitive, tel le peintre usant d’une palette de couleurs et de pinceaux dans son atelier, ou le musicien improvisant sur scène, l’ont poussé à élaborer ses propres instruments. Depuis le milieu des années 1990, le développement d’une technologie favorisant le traitement de l’image et du son en temps réel lui a permis d’accomplir sa vision. Gilje a développé une chaîne d’expérimentation du signal tout à fait unique et passionnante. L’outil numérique en question se nomme JMax, en hommage à Max Matthews, l’un des pères de l’informatique musicale. MAX est issu d’un logiciel, l’éditeur Patcher, écrit en 1987 par le mathématicien Miller Puckette pour la réalisation de Pluton, œuvre musicale de Philippe Manoury. Miller Puckette transposa cette première version du logiciel dans le projet de Station d’Informatique Musicale, initié à l’Ircam en 1989, et développa l’environnement de programmation visuelle MAX, alors uniquement conçu pour créer des programmes de traitement de plusieurs signaux numériques audio. jMax, nouvelle implémentation du logiciel MAX sorti en 1998, est un environnement de programmation visuelle pour la réalisation d’applications musicales et multimédia interactives. Les différentes étapes de fabrication des vidéos de HC Gilje sont devenues les suivantes : tout d’abord, la détection en mini-DV (obtention de flux de données), puis l’importation d’une partie de ce matériel pour le traiter ensuite avec jMax en temps réel au cours d’improvisations, l’enregistrement de ces improvisations, et enfin, le montage de ce matériel sous Final Cut Pro. 

Night for Day (2004) offre un langage visuel d’inspiration musicale comme interprétations poétiques et équivalents plastiques de la vie urbaine de Tokyo et de ses espaces architecturaux. JMax permet à Gilje de traiter les signaux numériques de manière radicalement différente que s’il utilisait des logiciels de montage et d’effets spéciaux, extrêmement rudimentaires en regard des expérimentations qu’il veut faire subir aux signaux numériques. Pour transformer et mixer ces signaux, Gilje élabore des programmes de traitements à l’aide des fonctionnalités de jMax : il construit une application sous formes de patches (représentations d’algorithmes de traitement) en connectant des modules sur une surface de travail. Les modules de MAX sont appelés objets. Ces objets peuvent eux-mêmes être des patchs, donnant ainsi au patch une structure hiérarchique. Certains objets ont un comportement graphique interactif et peuvent être utilisés comme contrôleurs, pour changer des paramètres dans le patch, ou comme visualisation, pour afficher des valeurs calculées par le patch. Cette pratique de la programmation visuelle lui permet de corréler les données des signaux de manière additive ou soustractive, d’appliquer à n’importe quel instant les effets de son choix et en faire varier tous les paramètres, créer des images dans les images de toutes formes et de toutes tailles et sans limites, et même utiliser et créer des erreurs du programme. C’est ainsi que dans Night for Day les images simultanément se saturent, se surexposent, se surimpressionnent ou s’incrustent de manière parcimonieuse, se font granuleuses, sont comme raclées de stries irrégulières blanches et de couleurs horizontales ou verticales, se stratifient et se décomposent et se reconfigurent de manière infinie ; le film accumule et concentre au sein de certaines séquences, des écrans, des bandes, des segments d’images par superposition complexe, chacun agissant comme une fenêtre, un cache, un filtre ou un prisme, dans une explosion formelle.

Les travaux de Pierre-Yves Cruaud, Jacques Perconte et HC Gilje nous ouvrent à un ensemble très vaste au XXIe siècle d’artistes du monde entier qui ont placé le traitement du signal au cœur de leur activité critique. En effet, ce dernier constitue un standard industriel véhiculant une idéologie, organisant une répression des pratiques, imposant des normes audiovisuelles et un lissage des perceptions. Les artistes développent par conséquent une compréhension fine du comportement régulé du signal et découvrent les opérations internes des outils (logiciels de montage, algorithmes d’encodage, environnements de programmation graphique, mais bien d’autres encore) et leurs fonctions inexplorées afin de s’emparer du signal. Ainsi le traitement du signal s’ouvre-t-il à son expérimentation : des ressources plastiques inédites jaillissent, susceptibles de figurer les multiples strates du réel. La connaissance concrète des spécificités du signal numérique permet aux artistes de créer des chaînes d’expérimentation toujours plus virtuoses, et de déployer, en s’aidant des avancées scientifiques et des innovations technologiques, un éventail infini de formes plastiques révolutionnaires qui renouvelle les enjeux de l’abstraction. 

Remerciements chaleureux à Jacques Perconte, Pierre-Yves Cruaud et HC Gilje. Ce travail est dédié à Malcolm Le Grice, avec admiration.

 Bill Viola in Raymond Bellour, « La sculpture du temps. Entretien avec Bill Viola », Cahiers du Cinéma n° 379, janvier 1986, p. 37 Anne-Marie Duguet, Vidéo, mémoire au poing, Hachette, 1981, p.181 Friedrich Kittler, « Mode protégé » (1993), in Emmanuel Guez et Frédérique Vargoz (dir.), Friedrich Kittler, Mode protégé, trad. Frédérique Vargoz, Dijon, Les Presses du réel, 2015, pp.53-69 Pour lequel ils recevront le Prix Nobel de Physique en 2009. Jacques Perconte, in Bidhan Jacobs, Vers une esthétique du signal. Dynamiques du flou et libérations du code dans les arts filmiques (1990-2010), Thèse de doctorat en études cinématographiques sous la direction de Nicole Brenez, Paris 3, 2014, p.348 Ibid., p.347


à venir : pièces liées / périmètres articles / auteurs / médias / registres / ...
❤︎ / jacques perconte