Pascal Dusapin, Lullaby Experience est à la croisée de trois préoccupations majeures de votre œuvre : l’univers de l’enfance, la voix et la recherche d’un autre rapport à la scène.
Pascal Dusapin : Oui, j’ai toujours été poursuivi par l’enfance. C’est une question à laquelle j’ai été confronté avec force pendant toute ma vie professionnelle. J’ai même fait un petit opéra pour enfants : Momo. Dans certaines de mes œuvres, mes opéras notamment, j’ai utilisé de petites mélodies, comme des comptines ou des berceuses – sans aucune citation, mais, parfois, tout d’un coup, de petites chansons qui surgissent. Ce qui était du domaine de la pulsion, j’ai eu un jour l’idée d’en faire un projet spécifique. L’aspect scénique est venu plus tard, en réalité, lorsque l’Ensemble Modern s’est lancé, il y a maintenant deux ans, et que nous avons convaincu Claus Guth de s’embarquer dans l’affaire. Dès lors que l’équipe s’agrandit, il est bien naturel que le projet change de nature. Mais, dans sa version originelle, Lullaby Experience était plus proche des arts plastiques. C’était en 2006, et le projet devait alors se faire dans le cadre d’une commande d’un musée de Houston, aux États-Unis.
Qu’est-ce qui vous séduit tant dans ces « Lullabies », ces comptines ou berceuses ?
P.D. : Cela relève de l’origine de notre mémoire musicale : quand on s’immerge dans cet océan de petites chansons, on se rend compte de leur puissance organique.
Cette puissance est-elle liée au fait qu’elles ont bercé notre enfance ou, inversement, ont-elles bercé notre enfance parce qu’elles sont par leur nature si puissantes ?
P.D. : Cela va sans doute dans les deux sens. Cependant, on aime une mélodie parce qu’on l’aime, je ne prétends pas analyser nos goûts. Je pense toutefois qu’elles ont une capacité très particulière à s’imprimer dans notre mémoire, dans notre chair même, et d’y prendre une place singulière, jusqu’à jouer un rôle dans notre rela- tion au réel et au symbolique. C’est un monde onirique d’une puissance extraordinaire.
C’est la raison pour laquelle je me suis absolument refusé à les retoucher, par transformation ou traitement électronique. Contrairement à Claus Guth qui, dans sa mise en scène, a pris une certaine distance vis-à-vis de l’univers de l’enfance (au travers du prisme psychanalytique notamment) : il a même imaginé un univers assez sombre – il m’a dit un jour que ce qui l’intéresse le plus dans l’onirisme enfantin, c’est sa dimension « cauchemardesque » essentielle, cette dualité entre rêve et cauchemar, qui est une part presque rhétorique de la vie psychique enfantine. Moi, non : je n’ai pris aucune distance. J’aime ces mélodies comme elles sont. Je voulais que le matériau d’origine soit toujours reconnaissable, quand bien même nous l’avons coupé, monté, mixé, spatialisé. Il n’est jamais transformé ou traité.
À partir de là, comment est né Lullaby Experience ?
P.D. : Mon rêve était de créer un « nuage de mélodies », susceptibles de se connecter entre elles pour en créer de nouvelles sur la base de paramètres que j’aurais imaginés (comme le ton, la nuance, le timbre de la voix...). L’idée première était celle d’une nuée d’oiseaux en mouvement, chacun d’eux chantant selon différentes modalités, un chœur animé de mille voix volantes. Bref, un « nuage chantant ». C’était le concept de base, qui a beaucoup évolué depuis.
Comment avez-vous collecté ce matériau ?
P.D. : Je tenais à avoir une grande variété de mélodies, issues de communautés très différentes – c’était du reste un aspect très « politiquement correct » qui avait beaucoup plu à l’époque au musée de Houston. D’où l’idée d’une application pour smartphones et tablettes. Je ne pensais pas que l’exercice de la musique m’amènerait un jour à superviser le développement d’une « app » !
Thierry Coduys : Avec Guillaume Jacquemin (Buzzing Light), qui a développé cette application, le téléphone comme médium d’enregistrement nous est rapidement apparu comme un très bon choix de par sa mobilité et sa facilité d’utilisation, toutefois cela pouvait poser un certain nombre de questions quant à la qualité des enregistrements, la synchronisation des données, la traçabilité des contenus et une ergonomie sans reproche, afin de faciliter la collecte des données.
P.D. : Cet aspect participatif du projet était évidemment très séduisant. Dans les faits, nous nous sommes aperçus que cela n’allait pas de soi. D’abord parce que chanter, et plus encore chanter une berceuse ou une comptine, est un acte très intime, quasi tabou. Beaucoup de gens s’autocensurent, au prétexte qu’ils pensent ne pas savoir chanter.
Cette collecte a soulevé de nombreuses problématiques auxquelles nous ne nous attendions pas !
Mais j’ai aussi découvert des tas de mélodies que je ne connaissais pas, issues de cultures du monde entier. Parfois on ne reconnaît même pas la langue – et, croyez-moi, nous nous sommes renseignés ! Car c’est la langue qui crée l’espace de l’intonation de ces berceuses, à la manière d’un substrat architectural. Dans certaines contributions, les gens oublient les paroles et ne font que fredonner la mélodie, mais on peut, par la forme de l’intonation, déduire la langue d’origine.
Ce qui est assez drôle, c’est que, pour créer notre nuage chantant, l’ordinateur lui-même crée comme des chimères linguistiques, en associant certains chants de langues différentes.
L’ordinateur dont vous parlez est un moteur informatique développé à l’Ircam : comment se sont passés les premiers contacts avec les chercheurs de l’institut ?
P.D. : Lors des premières rencontres, j’ai découvert que le projet tel que je l’avais imaginé n’était pas réalisable technologiquement : aucune « machine pensante », à l’heure actuelle, n’est capable de connecter toutes ces mélodies, tous ces modes et toutes ces cultures, à la manière d’un corps biologique naturel. J’avais beaucoup fantasmé sur les possibilités des fameuses « intelligences artificielles » dont on nous rebat les oreilles – mais non. On pense trop facilement que la technologie va suppléer à l’imaginaire. Mon expérience m’a appris que c’est à mon imaginaire de solliciter la technologie et non le contraire. En réalité, comme souvent, la machine peut donner des réponses intéressantes, mais seulement lorsqu’on lui pose de bonnes questions.
T.C. : En l’occurrence, la question était : peut-on transformer, mixer, faire du collage et même davantage sur un tel matériau? Nous avons d’abord tenté de comprendre ce qui était du domaine du possible, notamment auprès des équipes Analyse et synthèse des sons et Représentations musicales. Nous nous sommes rapidement intéressés au travail de Jérôme Nika.
Jérôme Nika : Il se trouve effectivement que DYCI2, la librairie d’agents génératifs que nous utilisons, et que j’ai développée pendant ma thèse et mon post-doc à l’Ircam, fait partie de cette famille d’outils qui permettent de « meta-composer », c’est-à-dire de composer à l’échelle de la narration, de la structure (par opposition à la composition habituelle à l’échelle du matériau). Mes travaux de recherche portaient initialement sur la co-improvisation humain/machine, à la suite de ce qui a été fait sur le logiciel OMax. Le principe de cette librairie, et en particulier des agents développés pour ce projet en collaboration avec Jean Bresson (équipe Représentations musicales Ircam-STMS), est d’articuler une mémoire (ici les comptines a capella) et des scé- narios (des structures temporelles) composés ou eux-mêmes générés. Pour donner un exemple simple, on peut envoyer la requête suivante à un agent génératif : en piochant dans ta mémoire, compose-moi un chœur à n voix, qui chantent toutes une mélodie proche de telle mélodie « cible », en ne choisissant que des timbres clairs, et en commençant par des éléments très harmoniques et doux pour aller vers du plus bruité et pointilliste.
La machine analyse donc le matériau selon une série de critères choisis à l’avance, et, en réponse à une série d’instructions, ce que vous appelez un « scénario », fournit une grande forme...
J.N. : La métaphore de scénario est pertinente : c’est une évolution à haut niveau, une trajectoire à suivre, pour organiser le matériau. La machine choisit alors parmi le matériau qu’elle a en mémoire ce qui se rapproche le plus des spécifications du scénario voulu pour générer un discours musical. Le matériau original est ainsi utilisé tel quel dans chaque fragment choisi par la machine, même si une comptine est rarement prise dans son entier, mais en tranches plus ou moins fines. Une syllabe unique peut ainsi être la concaténation de plusieurs fragments de syllabes issus de plusieurs mélodies. Le matériau des comptines est un « vivier ».
À plusieurs niveaux, d’ailleurs, car la machine va un peu plus loin : les scénarios dont nous parlons ne sont eux-mêmes pas réellement composés « à la main », mais par un autre agent musical, en début de chaîne, qui fonctionne exactement de la même manière, mais s’applique non pas aux mélodies elles-mêmes, mais bien plutôt au produit de l’analyse qu’en a fait la machine selon les critères que nous avons choisis.
C’est donc un autre agent, un « méta-agent », qui crée le nouveau scénario qui va à son tour générer le discours musical ?
J.N. : Oui. Les comptines sont découpées et analysées par Axel Roebel et Nicolas Obin (équipe Analyse et synthèse des sons), selon une série de descripteurs audio (que nous pouvons choisir). Et c’est le résultat de cette analyse que le « méta-agent » utilise comme « mémoire ». Cette mémoire étant « symbolique », ce qu’il produira en sortie sera une suite temporelle de symboles (auxquels correspondent des descripteurs audio)... un scénario donc. Le processus est donc le suivant : un premier agent se promène dans des analyses de lullabies pour générer un scénario, et ce scénario est à son tour utilisé par un second agent pour générer le discours musical lui-même. Composer un nuage chantant revient donc à demander à l’ordinateur un nuage dont la structure temporelle est construite à partir d’un sous-corpus (les analyses), réalisé à partir d’un autre sous-corpus (les comptines). Les deux sous-corpus étant en réalité le même, l’un présenté sous forme symbolique, l’autre sous forme de signal audio.
Le résultat n’est toutefois pas nécessairement bon !
J.N. : Non. Bien sûr. Ce n’est qu’une proposition. Et la machine ne sortira jamais deux fois la même. Il faut donc faire son choix. C’est pour ça que ça reste très composé et qu’il faut aussi apprivoiser l’instrument pour arriver à en jouer.
C’est donc un instrument ?
J.N. : Oui, c’est un outil et non une intelligence artificielle autonome. Pour composer une heure de musique, nous avons dû générer au moins dix fois dix heures de musique, le tout non construit, en plusieurs blocs de plusieurs minutes. Il a fallu écouter tout cela, ne conserver que ce qui fait sens, et composer enfin une forme à partir de ces éléments. À la main, cette fois.
Pascal, comment avez-vous appréhendé l’outil ?
P.D. : J’ai joué avec. On peut le dire. Je suggérais d’introduire de nouveaux paramètres d’analyses, d’en écarter d’autres. Thierry en a même inventé !
J.N. : Le choix de ces descripteurs est essentiel : ils fournissent non seulement les critères d’analyse du matériau par la machine, mais ils constituent aussi et surtout le vocabulaire que l’on utilise pour écrire nos scénarios. Si on analyse le matériau uniquement selon des critères d’énergie, on ne pourra jamais demander à la machine un scénario qui joue sur des hauteurs : la machine en sera tout simplement incapable !
Qu’avez-vous fait ensuite de ce que fournit la machine ?
P.D. : En réalité, la même chose que d’habitude. Quand je compose, je sais où je vais, je sais ce que je fais. J’imagine parfois des systèmes que je mets en œuvre, mais jamais le système ne fera la musique : celle-ci se construit par décisions successives, note après note.
La grammaire dans laquelle on écrit ne détermine pas le sujet, le verbe et le complément de la phrase qu’on écrit.
P.D. : Exactement. Et, rétrospectivement, un projet comme celui-là reste assez traditionnel puisqu’il revient à construire une composition, une dramaturgie. À partir des dizaines d’heures produites par la machine, la pièce a été produite, minute par minute, à la main.
La pièce n’est pas donc pas produite « en temps réel ».
P.D. : Pas du tout. Quelques jours avant les représentations, nous arrêtons le corpus de Lullabies que nous utilisons ensuite pour générer le discours. Le spectacle tel que présenté à Paris sera donc différent de celui qu’on a créé à Francfort, car le corpus s’est enrichi entre-temps.
Une chose se fait toutefois en temps réel : la spatialisation. Quelle a été votre démarche, en relation notamment avec ce que produit la machine ?
T.C. : Les spectateurs déambulant dans l’espace, il fallait imaginer un dispositif immersif et sans référence à une position d’écoute. La question était : comment écrire l’espace avec une masse sonore générée aussi importante, et des composantes additionnées aussi nombreuses (prosodie, harmonie, énergie, rythme, bruit, etc.) pour les berceuses, ainsi qu’avec les différentes interventions des musiciens en direct ?
Le travail a consisté à fixer les différentes sources sonores dans l’espace suivant des critères de répartition liés à la perception, puis à modifier la scène sonore dans sa globalité. Le dispositif de diffusion sonore dessinant une demi-sphère dans l’espace, on peut la déplacer selon ses trois axes, par homothéties ou angulations, à vitesses variables, comme des « pendules » en trois dimensions. On perturbe l’espace sonore, on crée des accélérations ou on donne un sentiment de vertige, mais en préservant l’identité de la scène sonore.
C’est ainsi qu’on a « écrit l’espace » comme un nuage sonore intrigant, qui sollicite le cerveau et invite à un mode déambulatoire, à une « expérience » à l’intérieur du nuage. Les pendules virtuels pouvant être déclenchés et paramétrés en temps réel, cela nous laisse une latitude qui procède de la liberté d’interprétation.
Note de programme du concert du 1er juin 2019 au CentQuatre, Paris.
©
Ircam-Centre Pompidou
2019