Do you notice a mistake?
NaN:NaN
00:00
Les modèles génératifs ont révolutionné les applications textuelles, visuelles et vocales utilisant l'IA. Conceptuellement, les progrès décisifs se sont produits lorsque les chercheurs ont réalisé qu'au lieu d'entraîner l'IA à résoudre une tâche spécifique, la machine devait apprendre les statistiques des données, lui permettant « d'imaginer » ou de tirer au hasard de nouvelles instances à partir de la même source d'informations. Aujourd'hui, les contrefaçons profondes et les chats textuels produisent des contenus qui peuvent être proches ou impossibles à distinguer des artefacts naturels ou fabriqués par l'homme. Mais est-ce une menace pour la créativité ou une opportunité incroyable ?
Dans l'exposé, je présenterai nos recherches sur l'IA générative pour la créativité musicale, avec de nouveaux résultats sur la représentation audio, la modélisation temporelle et le guidage de la génération musicale par du texte ou d'autres médias. L'interaction créative sera considérée comme un problème de communication d'informations et contextualisée dans les cadres Action-Perception et Deep Music Information Dynamics. Les défis créatifs de l'IA générative seront démontrés sur une pièce composée par l'IA à partir du poème de Rilke, en utilisant ChatGPT, une pré-formation langage-musique et Stable Diffusion pour la synthèse musicale.
Le projet REACH explore les conditions de co-créativité entre musiciens et intelligence artificielle dans un contexte d’interaction vivante, notamment pour les musiques improvisées. Il rassemble autour de l’Ircam des partenaires nationaux et internationaux tels que l’UCSD, Stanford, l’université de Tokyo et l’EHESS et produit des outils logiciels pour la création et la scène.
Ce séminaire présentera les résultats des recherches de manière accessible au public, en abordera les enjeux esthétiques, et philosophiques, et démontrera les outils logiciels co-créatifs issus des travaux. Il fera suite au concert REACHing OUT ! de la veille au Centre Pompidou, dans lequel ces outils auront été mis en œuvre en direct avec la grande improvisatrice Joëlle Léandre.
L’étude de la co-création entre hommes et machines est confrontée au fait que les hommes sont des animaux sociaux. Cette sociabilité produit des normes culturelles que les machines doivent pouvoir partager. Concrètement, cela implique l’exi
June 17, 2023 47 min
Depuis sa démocratisation, Internet n’a cessé de bouleverser le paysage musical. Les réseaux sociaux ont joué un rôle majeur dans ces transformations et sont devenus de nouveaux lieux importants de la performance musicale. Sur TikTok, la pl
June 17, 2023 32 min
L'apprentissage génératif de représentations symboliques à partir de signaux physiques et humains, et la compréhension des stratégies artistiques et sociales de l'improvisation nous aident à mieux comprendre la dynamique de coopération (ou
June 17, 2023 33 min
Après une brève présentation du fonctionnement de l’environnement Somax2, nous vous proposerons une réflexion en action des sujets de la performance, du contrôle et de l’instrumentalisé dans le cadre de l’utilisation d’algorithmes d’IA en i
June 17, 2023 42 min
Grâce aux projets REACH et MERCI, HyVibe et l'Ircam ont développé un prototype d’instrument acoustique créatif. Après modification et intégration de Somax dans une Raspberry Pi, le Creative Looper est né. Brisant la monotonie d’un looper cl
June 17, 2023 41 min
Si l'on prend au sérieux les recherches menées en sciences cognitives sous la bannière de l'Embodied Cognition Program les approches strictement logicielles en IA musicale, par opposition aux approches robotiques, semblent souffrir d'une li
June 17, 2023 37 min
Do you notice a mistake?