Les médias liés à cet évènement

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 24 min

L'estimation de fréquences fondamentales multiples

12 mai 2005 52 min

La harpe électroacoustique

4 février 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

17 octobre 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

27 juin 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

11 juillet 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

12 septembre 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

19 septembre 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

26 septembre 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

3 octobre 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

10 octobre 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

24 octobre 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

21 novembre 2007 57 min

ViVo : Analyse vidéo pour la synthèse concaténative audiovisuelle par corpus

0:00/0:00

La synthèse concaténative audiovisuelle par corpus étend le principe de synthèse concaténative sonore au domaine visuel, où en addition du corpus sonore (une collection de segments de sons enregistrés accompagnés d’une description perceptive de leurs caractéristiques), l’artiste utilise un corpus d’images statiques avec leurs caractéristiques visuelles perceptives (couleur, texture, détail, luminosité, entropie, mouvement). Il vise ainsi à créer une performance audiovisuelle musicale en navigant en temps réel dans ces espaces de descripteurs : à travers une collection de grains sonores dans un espace de descripteurs audio perceptifs, et à travers un espace de descripteurs visuels, en sélectionnant des images dans un corpus visuel pour le rendu. En conséquence, naviguer en parallèle à travers les deux corpus de manière interactive par contrôle gestuel tactile. Nous étendons ici ce principe à l’analyse de vidéos pour constituer le corpus visuel, avec l’ajout de quelques descripteurs spécifiques. Deux questions arts/sciences sont explorées, dans le cas d'une création artistique : quels descripteurs visuels sont adaptés à une interaction multimodale ? Comment les intégrer, depuis l’analyse de données vidéo en temps réel, dans un système de synthèse sonore concaténative par corpus, pour créer une expérience audiovisuelle multimodale incarnée ? C'est ce qui est permis avec Max/Jitter/MuBu dans la toolbox ViVo, brièvement présentés dans ce séminaire.

Intervenants

Diemo Schwarz est chercheur à l'Ircam (laboratoire STMS), compositeur de musique électronique, et musicien improvisateur. Ses recherches scientifiques portent sur l'interaction entre musicien et machine, sur l'exploitation de grandes masses de sons pour la synthèse sonore temps réel et interactive, soit pour redonner aux musiciens un accès immédiat et expressif aux mondes sonores électroniques grâce au contrôle gestuel, soit pour des installations grand public avec des interfaces tangibles intuitives, comme les DIRTI (Dirty Tangible Interfaces). En 2017, il était professeur invité à l'Université Technique de Berlin dans le cadre du programme Edgar-Varèse du DAAD, et en 2022, résident à l'Institut de recherches avancées IMéRA, Aix–Marseille Université, dans le programme arts, sciences, sociétés.

Matéo Fayet est diplômé du Master Acoustique & Musicologie (Aix-Marseille Université) en 2023. Son mémoire de Master portait sur le développement de ViVo et la création d'une œuvre audiovisuelle immersive dans l'équipe ISMM et au laboratoire PRISM. Actuellement, étudiant en Année de Recherche en Rercherche-Création (ENS Paris-Saclay), il réalise son stage au sein des équipes ISMM (projet DOTS) et de Réalisation en informatique musicale de l'Ircam.

intervenants

informations

Type
Séminaire / Conférence
Lieu de représentation
Ircam, Salle Igor-Stravinsky (Paris)
durée
59 min
date
24 avril 2024

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.