From the same archive

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 24 min

L'estimation de fréquences fondamentales multiples

May 12, 2005 52 min

La harpe électroacoustique

February 4, 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

October 17, 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

June 27, 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

July 11, 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

September 12, 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

September 19, 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

September 26, 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

October 3, 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

October 10, 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

October 24, 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

November 21, 2007 57 min

Augmentation Audio–Visuelle de la Trompette : Entre contrôle et imprévisibilité dans une collaboration recherche-création sur le long terme

0:00/0:00

Tout d'abord, nous présenterons Augmented Trumpet, une trompette audio-augmentée utilisant principalement le son de l'instrument lui-même pour piloter le traitement sonore, à la différence d'instruments augmentés traditionnels basés sur des capteurs. S'appuyant sur l'analyse sonore en temps réel pilotant des traitements tels que la synthèse additive, les résonateurs ou l'auto-convolution, ce projet a pour objectif principal d'explorer les relations entre l'humain et l'instrument augmenté qui introduisent de l'imprévisibilité, passant tant par des moments de contrôle que des moments d'adaptation à des situations de non-contrôle, ce qui est particulièrement intéressant dans la pratique de l'improvisation. Au cours de cette collaboration recherche-création sur le long terme, nous avons développé les mappings analyse-synthèse les plus pertinents musicalement. L'adoption d'une approche basée sur la pratique, fondée sur des principes auto-ethnographiques, a permis d'adapter et d'affiner le développement technologique en fonction des exigences musicales, allant au-delà du cadre des simples traitements audio vers un champ où l'environnement acoustique devient moins prévisible et plus un partenaire d'improvisation.
Article à venir, présenté aux JIM 2025: Nicolas Souchal, Diemo Schwarz, Acoustic Augmentation of the Trumpet — Navigating Control and Unpredictability in a Long Term Research–Creation Collaboration.

Ensuite, nous présenterons et performerons Extense, incluant Augmented trumpet, et lui ajoutant une augmentation vidéo dans laquelle le son de la trompette contrôle la navigation dans un corpus d'images tiré de dessins d'Elizabeth Saint-Jalmes. Pour cela le principe de synthèse concaténative interactive basée sur un corpus, jusqu'à présent appliqué le plus souvent au son, est étendu au domaine visuel. Au lieu de créer de la musique en naviguant à travers des grains sonores dans un espace de descripteurs audio, un corpus d'images fixes a été construit. En calculant les descripteurs d'images (tels que la couleur, la texture, la luminosité, l'entropie, etc.), ce corpus peut être parcouru de manière interactive, le contrôle étant assuré soit par la reconnaissance des gestes à l'aide de capteurs de mouvement, soit par l'analyse audio de la performance de la trompette. L'un des principaux défis de ce système performatif est d'explorer les moyens, dans le domaine du traitement de l'image, d'établir des liens significatifs entre les descripteurs d'images et les descripteurs de sons.

Le corpus visuel est tiré de l'œuvre d'Elizabeth Saint-Jalmes, en particulier des séries Révolution, Sans titre, Afflux et Orgasmes crus. Les topologies qui émergent dans ces œuvres entrent en résonance avec celles présentes dans l'audio-Trompette augmentée. Pour construire ce corpus, plus d'une centaine de photographies et de scans haute résolution des œuvres de l'artiste ont été réalisés, suivis de l'acquisition et de la numérisation de ces images.

speakers

information

Type
Séminaire / Conférence
performance location
Ircam, Salle Igor-Stravinsky (Paris)
date
June 4, 2025

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

opening times

Monday through Friday 9:30am-7pm
Closed Saturday and Sunday

subway access

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.