PETIT LEXIQUE DES TERMES ET NOMS TECHNIQUES
Aide à la composition Utilisation de l’ordinateur pour la formalisation, la construction et la manipulation des structures musicales, afin de produire des matériaux compositionnels pour la musique instrumentale et le contrôle de la synthèse.
Amplitude Paramètre physique du son qui désigne son énergie et qui est souvent lié à l’impression auditive d’intensité.
AudioSculpt (logiciel de traitement du son) Logiciel développé à l’Ircam, qui permet de littéralement « sculpter » un son de manière visuelle. Après une phase d’analyse, le son s’affiche sous la forme d’un sonogramme et l’utilisateur peut dessiner les modifications qu’il veut lui appliquer. Ces traitements sont principalement le filtrage (changement de timbre), la synthèse croisée (combinaison de spectres de deux sons), la transposition (changement de hauteur), la dilatation et la compression temporelle (changement de durée). Principales applications : composition, design sonore, post-production, cinéma, multimédia, acoustique, enseignement, analyse musicale, ethnomusicologie.
Csound (logiciel de traitement du son) Programme modulaire d’analyse, de synthèse et de transformation des sons dans la continuité de MusicV, qui constituait une référence en matière de programme général de synthèse ; Csound a été développé au Massachusetts Institute of Technology (Etats-Unis) sous Unix et porté sur une grande gamme de machines dont l’ordinateur Macintosh.
Echantillons Sons enregistrés.
Enveloppe Courbe d’évolution de l’intensité sonore du son.
Filtre Dispositif permettant de modifier l’amplitude de certaines composantes du spectre.
Fréquence Paramètre physique du son qui désigne sa périodicité, c’est-à-dire le nombre de fois par seconde où un même mouvement de l’air se reproduit. Si ce mouvement, transmis par l’air à notre tympan, est périodique, nous entendrons un son dont la hauteur sera facilement identifiable et en rapport avec le nombre de périodes. Dans le cas contraire, nous entendrons plutôt un bruit. La fréquence est mesurée en Hertz (Hz) : 1 Hz correspond à une seule vibration complète par seconde (la4 du diapason = 440 Hz).
Harmoniques Composantes fréquentielles d’un son ou encore partiels d’un son, ayant la propriété d’être les multiples d’une fréquence de base appelée fondamentale.
Hauteur La hauteur d’un son est liée à sa fréquence fondamentale (voir harmonique). On la note musicalement par un symbole sur une portée de cinq lignes. La hauteur du symbole sur cette échelle est directement liée à sa hauteur perçue, du grave à l’aigu. On note fréquemment aujourd’hui la musique en quart de tons, surtout lorsque l’on emploie des multiprocesseurs, ou autres modes de jeu. L’invention de la notation des hauteurs est contemporaine de l’invention de la polyphonie, c’est à dire de l’émission simultanée de plusieurs hauteurs.
Max/MSP (logiciel d’interaction en temps réel) Logiciel d’informatique musicale conçu pour la création d’applications en temps réel. Il permet au compositeur de programmer des situations interactives entre musiciens et machines (ordinateurs et dispositifs Midi). Initialement développé à l’Ircam sur Macintosh et commercialisé par la société américaine Opcode, il a été le point de départ de nouvelles générations de logiciels temps réel : Max sur la station d’informatique musicale de l’Ircam et jMax sur Silicon Graphics et PC/Linux. Sur Macintosh, il intègre aujourd’hui la librairie MSP qui ajoute des fonctions d’analyse, de synthèse et de traitement du son en temps réel et est commercialisée par Cycling 74.
Midi « Musical instrument digital interface » : norme de communication entre instruments de musique informatiques.
Modalys (logiciel de traitement du son) Le logiciel Modalys et sa version avec interface graphiqueModalys-ER sont utilisés pour créer des instruments virtuels à partir d’objets physiques simples tels que des cordes, des plaques, des tubes, des membranes, des plectres, des archets et des marteaux. L’utilisateur construit ainsi un instrument et décide ensuite comment il va en jouer. Modalys permet de constituer un véritable atelier de lutherie virtuelle dans lequel le compositeur peut créer des instruments irréalisables dans le monde physique mais d’un intérêt musical réel.
OpenMusic (logiciel de composition musicale assistée par ordinateur) OpenMusic est un environnement de programmation graphique pour l’aide à la composition, développé à l’Ircam en langage Common Lisp sur l’ordinateur Macintosh. C’est un environnement ouvert, mélangeant bibliothèques de fonctions spécialisées, éditeurs de notation traditionnelle et capacité de se construire ses propres fonctionnalités.
ProTools Système d’édition de sons et de mixage pour l’ordinateur Macintosh, « multi-pistes ».
Spatialisation Distribution statique ou dynamique de sources sonores dans l’espace de la salle de concert, avec ou sans effet de salle artificielle (réverbération).
Spectre En acoustique ce terme désigne un constituant fondamental du son : son timbre. Il est souvent représenté comme un ensemble de sons élémentaires appelés partiels dont la somme constitue le son original. L’évolution de la fréquence et de l’amplitude de ces partiels dans le temps constitue une « signature » pour le système de reconnaissance de l’oreille. Les rapports entretenus par ces partiels sont déterminants et permettent de différencier les sons « harmoniques », dont la hauteur est facilement identifiable par l’auditeur, des sons « inharmoniques », dont l’expression la plus extrême est le bruit. Un spectre est souvent représenté par un sonogramme, qui montre sous la forme d’un ensemble de raies horizontales l’évolution des partiels. L’axe vertical représente alors la fréquence, l’axe horizontal le temps.
Suivi instrumental Procédé permettant la synchronisation automatique d’un instrumentiste avec un ordinateur. Les informations provenant de l’interprétation sont comparées à la partition correspondante stockée dans la mémoire de l’ordinateur : en fonction de la conformité ou de la différence des informations reconnues avec celles en mémoire, l’ordinateur réagit en jouant sa propre partition de synthèse et de transformation. Suivant l’instrument et la configuration technique, l’information peut être transmise sous forme Midi à l’ordinateur (par exemple capteurs optiques-mécaniques sur le piano), ou bien analysée directement par l’ordinateur avec la station d’informatique musicale à partir du signal s’il s’agit d’un son monophonique.
Synthèse additive Technique de synthèse basée sur la reconstitution d'un son complexe par superposition de sons simples (sinusoïdes). C’est ce que font les organistes lorsqu’ils enrichissent le son de leur instrument par l’adjonction de jeux différents.
Synthèse croisée Technique de synthèse de deux sons à partir des fréquences du premier son et des amplitudes du deuxième son.
Synthèse FM Technique de synthèse audio par modulation de fréquences, qui utilise un principe de modulation analogue à celui que l’on emploie en radio transmission : on fait varier la fréquence d'une onde périodique, la porteuse, en fonction de l'amplitude d'une autre onde, la modulante.
Synthèse granulaire Technique de synthèse consistant à massivement dupliquer et transformer des grains de sons (courts échantillons, c’est-à-dire des sons enregistrés) par transposition, dilatation et compression temporelle, etc., de manière à réaliser des textures sonores.
Temps différé Les calculs informatiques (analyse, traitement, synthèse) sont réalisés en studio et non au moment du concert, ceci pour des raisons pratiques (calculs trop complexes ou trop nombreux), par opposition au temps réel.
Temps réel Les calculs informatiques (analyse, traitement, synthèse) sont réalisés en direct au moment même du concert, par opposition au temps différé. Ceci permet notamment un contrôle de type instrumental.
|