RENCONTRES SCIENTIFIQUES
CONFÉRENCE ISMIR
ATELIERS DU FORUM
L'ECOUTE INSTRUMENTÉE
SESSION MÉTADONNÉES
SESSIONS THÉMATIQUES
ESPACE D'EXPOSITION
JOURNÉE D’ÉTUDE À LA CITÉ DE LA MUSIQUE
RENCONTRES ARTISTIQUES
SONIC PROCESS
CONCERTS CURSUS
EVÉNEMENTS ASSOCIÉS
INSTALLATIONS SONORES
PROJECTIONS
WEEK-END NOUVEAUX INSTRUMENTS
ATELIERS CONCERTS
ATELIERS POUR ENFANTS
CONFÉRENCES DÉMONSTRATIONS
GALERIE NOUVEAUX INSTRUMENTS
PORTES OUVERTES DE LA RECHERCHE

VENDREDI 18 OCTOBRE, STUDIO 5

09h30-10h15 AGNULA - Musique et logiciels libres 
Franz Meyer, Directeur RedHat South of Europe, François Dechelle, responsable Systèmes et logiciels libres à l'Ircam

RedHat et l'Ircam présenteront le projet AGNULA (A GNU Linux Audio distribution) Ce package rassemblera de nombreuses applications audios professionnelles et multimédia et sera distribué gratuitement sous le nom de ReHMuDi pour Red Hat Multimédia Distribution.

AGNULA est soutenu par la Commission Européenne dans le cadre du Programme IST (Information Society Technologies).

Ce projet ambitieux de 24 mois est sous la coordination du Centro Tempo Reale à Florence qui gère sa réalisation en étroite collaboration avec les centres de recherche acoustiques et musicaux, et notamment :

-  l’IRCAM, l’Institut de Recherche et de Coordination Acoustique/musique de Paris
-  le KTH, Kung Tekniska Högsolan de Stockholm
-  l’Universita Pompeu Fabra de Barcelone
-  la Free Software Foundation Europe

10h15-11h00 Verblich pour contrebasse et dispositif électronique 
Stéphanie Schweiger, Cursus Ircam

La composition "verblich" a été réalisée pendant le cursus annuel à l'Ircam. J'ai utilisé les développements de l'Ircam pour générer des sons ainsi que pour traiter des sons enregistrés. Je voudrais montrer comment j'ai procédé et quels étaient les buts de mon travail . Quelques exemples :
-  utilisation de petits fragments de fichiers sons pour construire des sections plus grandes. Cette procedure est dérivée du travail traditionnel avec la bande, mais le surmonte à cause des possibilités de fragments plus courts et de plus de couches.
-  utilisation d' OMChroma pour générer des sinus et pour créer des glissandi et des transpositions. OMChroma est également utilisé pour désaccorder des sons et des séries produites en OpenMusic.
-  utilisation d' AudioSculpt pour filtrer des fichiers sons et couper certaines fréquences d'enregistrements, réalisées dans des rues, dans la nature et à l'interieur.
-  utilisation de Max pour traiter des enregistrements et recevoir des vibrations periodiques, mais aussi des sons extrèmement bruyants. Max/Msp est utilisé pour traiter la contre-basse en temps réel.
-  Pendant une conférence à l'Ircam en 2001 j'ai appris à connaître les sons vocals de manchots, qui sont produits par l'usage synchron des deux organs vocals. Ces sons étaient dilatés et transposés. La relation entre des techniques nouvelles et des manières de penser traditionelles me fascine. Reveler cette idée était un des buts principaux de cette composition.

11h00-11h30 Le ID-Studiolab 
Aadjan Van der Helm

Le ID-StudioLab est un groupe d'experts multidisciplinaires dans le domaine de l'interaction utilisateur-produit. .Notre vision consiste à dessiner des produits qui sont esthétiques, engageants et agréables, mais pas forcément faciles à utiliser. Nous essayons de mettre en œuvre cette démarche à travers la "recherche par design ". Dans cette approche le design constitue une partie intégrale de la recherche. Un des sujets de recherche dans le ID-StudioLab est l'Interaction Expressive. A travers l'Interaction Expressive nous voulons améliorer la communication entre utilisateur et produit en nous concentrant sur les capacités et possibilités humaines. Nous construisons des prototypes actifs afin de faire l'expérience et d'évaluer ces interactions. Ces prototypes sont assemblés avec la programmation dataflow MAX/MSP. Nous présenterons quelques-uns de ces projets qui nous ont occupé cette année.

11h30-12h00 
Coffee Break
12h00-13h00 DIPS for Mac OSX and Linux 
Takayuki Rai, Shu Matsuda, Chikashi Miyama

Le DIPS (" Digital Image Processing with Sound ", " traitement d'images digitales avec son ") est un ensemble d'objets Max gérant la visualisation d'image en temps réel ainsi que des fonctions OpenGL dans l'environnement de programmation jMax GUI. Puisqu'il permet l'interaction entre des événements audio et visuels dans Max, il offre une aide précieuse aux artistes et aux compositeurs travaillants dans le domaine du multimédia interactif. Le DIPS inclut plus d'une centaine de fonctions OpenGL, d'objets Videoln et Quicktime, divers objets d'effets vidéos, des objets gérant les fichiers films, des objets gérant le 3D et les particules, etc. N'ayant pas besoin d'être compilé, il peut être utilisé de façon heuristique en temps réel. Le DIPS pour ordinateur SGI a été présenté à l'ICMC 2000 à Berlin. Celui pour Mac OS X et Linux, sorti sur http://www/dacreation/dips.html sous GLP en juillet 2002, a été présenté à l'ICMC 2002 à Goeteborg. Au cours de la présentation la dernière version sera présentée avec quelques patches d'exemples. Certaines techniques de programmation de DIPS seront discutées.

13h00-14h30 
Pause Déjeuner
14h30-15h15 Some advantages of implementing Open GL GUI in Analysis/Synthesis software 
Stanko Juzbasic

Deux " travaux en cours " vont êtres présentés comme illustration. 1) FHT Core - un vocodeur de phase simple, basé sur la transformée de Hartley, avec possibilité d'exportation au format IRCAM. 2) SculptView - un éditeur / re-synthétiseur visuel de partiels au format IRCAM. Ces deux programmes traitent de formats et de concepts informatiques communément utilisés par les membres du FORUM. La conférence consistera en une brève description accompagnée de démonstrations, concernant le développement technique et l'application musicale.

Les recherches et développements relatifs aux programmes informatiques présentés font partie du projet OpenSource PRIZVUK, soutenu par le ministère des sciences et de la technologie de la république de Croatie.

15h15-16h00 Techno-improvisation avec MAX et Open Music 
Marc Chemillier

Le principe de cette application est de faire communiquer Max et OpenMusic, le traitement temps réel de Max étant prolongé par des fonctions d'intelligence artificielle apportées par OpenMusic. Ce système est utilisé pour modéliser les techniques compositionnelles développées par les DJ dans les musiques électroniques actuelles. On montrera quelques modèles réalisés dans le style house, qui emprunte de nombreux éléments au jazz. L'un de ces modèles permet, au cours d'une improvisation où l'on mixe des boucles audios traitées par Max, d'injecter des séquences harmoniques jazz au format midi calculées par OpenMusic (modélisées par des grammaires de substitution), qui sont envoyées à Max en temps réel pour être mixées.

16h00-16h30 Coffee Break 
Coffee Break
16h30-17h15 nn: un logiciel libre sur jMax, pour simuler de réseaux neuronaux artificiels à usage multiple 
Paul Modler, Hochschule fuer Gestaltung Karlsruhe, Tony Myatt, Music Department, University of York

Au cours des dernières années, de nombreuses applications incorporant des réseaux neuronaux artificiels ont été développées. Ceux-ci se retrouvent dans des domaines aussi variés que la reconnaissance de formes, le traitement du signal, la classification ou l'identification. Dans le contexte musical, des réseaux neuronaux artificiels ont également été utilisés dans de nombreuses expériences et applications. Au cours de cette conférence un objet nommé " nn " développé pour l'environnement temps réel jMax et capable de gérer des réseaux neuronaux artificiels à des fins pédagogiques, de test, ou de situation de concert temps réel sera présenté. L'objet réseau neuronal est entièrement intégré à l'environnement jMax. " nn " est basé sur le " Stuttgart Neural Network Simulator " (SNNS), un simulateur de réseaux neuronaux standard en logiciel libre, offrant différentes architectures de réseaux, telles que, par exemple, le réseau en Feed-forward, le réseau en " Time Delay ", le " Self Organizing Map " etc. Le design spécifique d'un réseau neuronal est conçu en utilisant des messages jMax, les paramètres du design étant transmis aux objets sous forme de paramètres messages. Les réseaux, ainsi que les ensembles de patterns s'y référant, peuvent êtres sauvegardés sur, ou chargés depuis un fichier. Un réseau peut être " entraîné " à l'aide d'un ensembles de patterns particuliers. Un réseau une fois " entraîné " peut être testé et utilisé en temps réel dans l'environnement jMax. Quoiqu'il soit possible de contrôler intégralement " nn " depuis l'environnement jMax, l'outil graphique standard de SNNS pour la conception de réseaux peut également être utilisé. Cet outil permet de concevoir et de tester aisément des réseaux plus complexes, qui peuvent par la suite êtres chargés dans l'objet " nn ". Un objet enregistrant des données a également été développé dans jMax pour la capture en temps réel d'informations. Il permet de générer des fichiers de patterns pour le test et l'apprentissage du réseau neuronal. Cet objet enregistre des données à dimensions multiples, telles les données vidéos. Ainsi un objet " grabber " basé la puce à usage multiple btv a été développé afin d'obtenir un flot vidéo et un objet " fenêtre " pour l'affichage de données vidéos ou graphiques. " Recorder " fournit les fonctions d'édition standard tels que " rejouer ", " couper ", " copier " ou " effacer ". En exemple, une application reconnaissant des gestes de la main basée sur l'analyse de signal vidéo via un objet " nn " avec pour but de contrôler une synthèse sonore sera présentée. Les différentes étapes, depuis l'enregistrement et l'édition des données, le design et l'apprentissage du réseau jusqu'à son utilisation en temps réel seront décrits.

17h15-18h00 Le son dans les jeux du DESS JVMI 
C. Le Prado, B. Chéret, T. Dilger, J. Tanant, S. Natkin

Le département informatique du Conservatoire national des arts et métiers (Cnam), Les Universités de La Rochelle et de Poitiers avec la participation de L'Institut de Recherche et de Coordination Acoustique/Musique (Ircam), du Cnam Poitou-Charentes, du Centre National de la Bande Dessinée et de l'Image (CNBDI), et des industriels français du secteur des jeux, ont créé en 2001 une formation professionnelle dans le domaine du jeu vidéo. Le DESS " Jeux Vidéo et Media Interactifs". Le DESS JVMI fonctionne selon le principe d'une école d'audiovisuel. Les élèves se présentent dans une des cinq spécialités : Ergonomie IHM et cognition (université de Poitiers), Informatique et traitement de l'Image (université de La Rochelle), Conception Sonore (Cnam Paris et Ircam), Programmation (Cnam Paris) et Réalisation (Game Design)/ gestion de projets (université de La Rochelle). Dans le cadre de leurs études, les élèves doivent, en équipe de production, spécifier un jeu et réaliser une maquette de ce jeu. Après un bref rappel de la problématique du son dans les jeux et du cursus conception sonore du DESS JVMI, les élèves de cette spécialité présentent le "sound design" de la production 2001-2002 :

18h00-18h30 Double Contour 
Kumiko Omura, cursus Ircam 2000/2001

"..Pour la composition de cette pièce, je me suis inspirée des gravures de l'artiste espagnol Manos Valdes. Il s'agit d'une série issue de la même silhouette d'une danseuse, dans laquelle Manos Valdes utilise des procédés de décalage et des variations de couleurs. Dans ma pièce, la partie de violoncelle symbolise la silhouette originale, que j'ai rendue floue à l'aide de procédés électroniques :delay, harmonizer, modulation de fréquence, et à laquelle j'ai ajouté une variété de sons et de couleurs. Le violoncelle et l' électronique forment un "double contour" qui est le titre de cette pièce.."


Comité d'organisation