We apologize this page has not been translated yet. You can use this tool to browse our website in any language.

GeKiPe – Geste Kinect et Percussion

Responsable(s)


Partenaires

Jose MIguel FERNANDEZ, Institut de Recherche et Coordination Acoustique/Musique (IRCAM), Paris

Jackie SURJUS-COLLET , Théâtre de l’Archipel, Perpignan

Alexander VERT , Association Flashback 66, Perpignan

Thomas KÖPPEL , Association Ultra, Genève

Bertille DESWARTE , Centre Culturel de Rencontres / Château de l’Esparrou, Canet en Roussillon

Wilfried WENDLING , La Muse en Circuit, Paris

2015-2021


Présentation du projet

« Geste Kinect et Percussion » est un projet de recherche-création qui se propose d’explorer le contrôle d’instruments virtuels à partir de l’analyse des gestes spécifiques aux percussionnistes.

Plusieurs caméras Kinect (habituellement utilisées pour les consoles de jeu) permettront non seulement de reconnaître le geste mais également de le qualifier de manière très fine (vitesse, avant-gestes, etc.). Ces gestes sont alors mis en correspondance avec le logiciel Modalys, développé à l'Ircam. Celui-ci permet de modéliser entièrement des instruments de percussion virtuels que l’on peut jouer en envoyant des ordres pour les frapper, frotter ou même souffler. On peut également en changer la taille, le matériau ou la forme de manière continue.

Le projet étudiera en particulier le rapport entre la force physique réelle mise en jeu par le percussionniste et le travail de la qualité du son virtuel en rapport musical avec ce geste, dans l'idée d'une transparence de la technologie au service d'une expressivité musicale originale.

Dans une deuxième phase de la recherche, le système de captation des gestes a été développé grâce à l’ajout d'un nouveau capteur à l'actuelle caméra kinect : les capteurs accéléromètres.  L’ajout de la vidéo générative, quant à elle, a permis de relier images et œuvres sonores, créant de nouveaux univers artistiques et scénographiques. Cette « hyper » synchronisation entre le geste instrumental, le son et l’image, permet à l’interprète de contrôler le tout en temps réel.

Cet outil multimédia associant son et vidéo, entend susciter à terme la création d’un nouveau répertoire d’œuvres associant compositeurs, interprètes et designers visuels, véritable plateforme multidisciplinaire qui offrira un potentiel de collaboration entre les différentes disciplines artistiques.

Le projet se déroule en plusieurs phases :

Phase 0 : 2015 - 2015

Phase 1 : 2015 - 2016

Phase 2 : 2017 - 2019 

Phase 3 : 2019 - 2019